AI绘画是近年来热门的话题之一,不仅仅局限于艺术家群体,已经有越来越多的人和机构,通过AI绘画来实现自己的创作需求。譬如游戏公司,通过AI绘画来获得初级的场景和人物形象素材;电商公司,通过AI绘画更快地实现产品描述配图等。
去年11月,UCloud上线了AI绘画stable diffusion平台,在GPU云主机内置stable diffusion模型,提供jupyter可编程页面,根据用户的创意描述来生成图片。今年,UCloud将AI绘画平台全新升级,内置可视化操作界面,提供图像精准控制(Controlnet)、图像分割(Segment Anything)、图像微调等插件,为艺术创作者和设计师提供更多便利。

在UCloud使用AI绘画服务,创建仅需三步:
1) 创建GPU云主机,镜像市场选择“AI绘图 Web UI”镜像,防火墙策略开放7860端口接口
2) 登录GPU云主机,执行镜像首页提示的命令,就可快速启动AI绘画服务
3) 登录http://eip:7860即可访问stable diffusion Web UI页面(EIP为创建的GPU云主机的外网ip)
*参考文档:
https://docs.ucloud.cn/gpu/practice/stable_diffusion_webui
产品新特性:

可视化操作界面,预装多种风格模型
目前已预装stable-diffusionV1.5,stable-diffusionV2.1,anythingV3(动漫风格),dreamlike-photoreal(写实风格),deliberate_v2(写实风格)等模型。
以Prompt:
“a grey cat, headphone, cyberpunk”为例,不同模型出图效果示例如下:

Anything V3

Deliberate

Stable diffusionV2.1

图像精准控制
在AI绘画平台镜像中,已配置Controlnet插件,预装了canny、openpose、scribble等图像精准控制模型,支持边缘检测、pose指定、涂鸦等图像条件输入。
以canny模型为例,输入及输出结果如下:

Input

Output
以openpose模型为例,输入及输出结果如下:

Input

Output
以scribble模型为例,输入及输出结果如下:

Input

Output

图像分割
预装segment anything插件,支持图像分层,切割,单次可处理单张或多张图片。页面预览如下:

例如输入一只猫的图片,基于预装的sam模型,可以快速实现图像的分层、蒙版、分割。如下图所示:

Input

Output

图像微调
AI绘画平台镜像预装Additional-Networks插件,支持基于LoRA模型微调图片风格。
在webui页面操作步骤如下:
1) Checkpoint选择
“chilloutmix_NiPrunedFp32Fix.safetensors”
2) 选择“Additional Network”
3) module选择“LoRA”
4) 选择需要叠加的风格模型

模型选择页面
以Prompt:
“a grey cat, headphone, cyberpunk”为例,如图所示模型输出结果如下:

Input

Output
写在最后
AI绘画的应用场景非常广泛,可以用来创作美术作品、设计图形、制作动画和游戏等。它能够快速地生成高质量的图像和图形,同时还能够自动化一些重复性的工作,节省了大量的时间和精力。所以,不论您是专业的绘画爱好者,还是对AI技术感兴趣的普通人,都欢迎通过我们的AI绘画服务来体验一次AI与艺术的融合。

更多产品咨询,请扫码了解
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。