AI × Architecture——Stable Diffusion 秒绘方案表现讲座
作者:   发布时间:2025-07-14   浏览次数:189

2025年7月7日上午,AI × Architecture——Stable Diffusion秒绘方案表现讲座于我校公1#208的多功能报告厅成功举行。讲座的主讲人是厦门南洋学院环境艺术设计教师、设计学博士、高级工程师任文昊,参加此次讲座的有我校教师李建晶、袁盈、韩敬伟等以及2021级建筑学专业全体学生。

AI赋能设计:机遇与挑战并存

首先任文昊老师开篇指出,当前是AI技术爆发的“最好时代”,文本生成(如豆包、文心一言)、图像生成(Midjourney、Stable Diffusion)、声音克隆等AIGC工具已能高效实现过去难以想象的效果。然而技术迭代的迅猛也带来了挑战——“知识爆炸”使得技能保鲜期大幅缩短,设计师亟需掌握前沿工具以保持竞争力。

为何选择Stable Diffusion?

可控性是设计核心

针对设计专业需求,任文昊老师重点对比了主流生图工具。他指出,Midjourney虽擅长灵感发散(如生成广告概念图或LOGO草稿),但其“抽卡式”的随机输出模式无法满足建筑、室内、景观等领域对精度与可控性的严苛要求。“设计不是碰运气,”他强调,“我们需要的是能精准调整沙发颜色、修正建筑朝向的工具——这就是SD不可替代的价值。”

揭秘SD运行逻辑:

从“厨房”到“上菜”的完整链条

任文昊老师以生动比喻拆解SD技术框架:大模型 = 厨师:需预先“训练”,如将“cat”文本与猫图像坐标关联,依赖强大算力(GPU)固化知识。他推荐CivitAI(C站)等开源平台获取建筑专用模型;提示词 = 点菜指令:用户需求需转化为模型可识别的坐标信息(文字编码);潜在空间 = 微型厨房:在有限算力下高效生成图像雏形(文字向量);解码器 = 放大镜:将微缩图像解码为最终高清效果图。

WebUI vs ComfyUI:

初学者与高阶的路径选择

针对操作界面,任文昊老师解析了两大主流分支:WebUI(基础推荐):界面直观,参数通过下拉菜单调整,适合新手快速入门;ComfyUI(高阶/商用):采用节点连线式工作流,可保存并复用复杂流程(如电商产品换背景模板),大幅提升批量化效率。

实战核心:

ControlNet控件实现精准控制

讲座精华聚焦SD的“灵魂插件”——ControlNet(CN)。该功能通过约束生成过程,使AI严格遵循设计师输入的线稿或结构图:

1.操作关键:

启用控件 > 上传基础图(照片、SU导图或手绘稿)> 选择预处理模式(Canny硬边缘提取细节/Lineart柔和轮廓)> 锁定权重(建议0.8-1.0确保形准)。

2.应用场景:

(1)照片转风格化效果图:如将实景建筑转为动漫风(需匹配风格化大模型)。

(2)SU模型/手绘稿秒出效果图:跳过传统渲染流程,快速验证设计意向。

(3)精准深化:选定满意初稿后,需点击绿色按钮锁定种子值,再启用“高分辨率修复”进行无损放大(如512px→1024px),避免再生结果偏离。

效率革命:

缩短设计周期,加速甲方共识


任文昊老师用视频演示了SD生成建筑效果图的完整流程:选定建筑大模型 > 分层级撰写提示词(主体+细节+环境+风格+分辨率)> 设置参数(采样器选“加号”迭代版本,步数20+平衡质量速度)> 结合ControlNet输入SU白模 > 1分钟内输出多版方案。他强调,此技术能极大压缩前期沟通时间,帮助设计师快速呈现多种可能性,与客户高效达成方向共识。


讲座尾声,任文浩老师分享了集成中文翻译插件的SD本地安装包及大模型资源。李建晶老师表示,本次讲座让我们学会了从底层逻辑研究的图纸更能达到想要的效果,讲座的内容将整理为完整课件与操作视频,供师生深入研习,推动AI技术与设计专业的深度融合。