首页 > AI资讯 > 工具使用 > 无敌了!Midjourney外部图像编辑功能上线,支持Controlnet深度控制

无敌了!Midjourney外部图像编辑功能上线,支持Controlnet深度控制

新火种    2024-10-25


无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

大家好我是花生~

预热许久的 Midjourney 外部图片编辑功能终于上线了!做为目前最强大的 AI 绘画工具之一,Midjourney 在图像质量、风格质感、功能便捷性等方面的表现都是顶尖的,但它一直无法准确控制生图内容、也不能上传本地图像进行二次编辑,想必是很多人的痛点。

而此次新上线的编辑版块一次性解决了这 2 个问题,不仅支持修改、拓展本地图像,还支持基于深度控制生成图像,也就是说我们可以在 Midjourney 中使用 controlnet 了,一起来看看新功能的效果如何吧~

一、编辑功能使用介绍

Midjourney 官网: 

先说一下,新的编辑功能并不是完全公开的,目前只对部分人群开放,分别是年度会员、生成超过一万张图片和连续订阅超过 12 个月的会员。满足这三个条件中的任意一个,就能在 Midjourney 官网中看到新编辑功能的入口。

图像支持通过「互联网链接」和「本地上传 」2 种方式。图像上传后,可以进行 「Edit 编辑」和 「Retexture 重绘」两种处理。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

我先测试了 「Retexture」功能,虽然名字是纹理重绘,但本质上类似于 Controlnet 的深度控制功能,会保留原始结构,然后根据提示词重新绘制画面,从而得到新的内容、风格、材质,这项功能对释放 Midjourney 的模型潜力非常有用。

我上传了一张之前在 Midjourney 中生成的扁平卡通插画,然后在提示词中加入了 3D Pixar cartoon style、Clay Style 等关键词,最终成功将其转换为了 3D 风格,整体效果非常精准。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

熟悉 AI 绘画的小伙伴可能已经想到了很多该功能应用场景,2D 插画转 3D、手绘线稿转实物图、线稿上色、建筑/家居图重绘、3D 白模 AI 渲染等等。

以前这些功能需要在 SD 中进行,通过 Controlnet + 对应风格的模型实现,而现在可以直接在 Midjourney 中一步完成,而且只需通过提示词+参数,就能实现各种风格材质的高质量出图,再也不用花时间去找模型了,这会让相关工作流更高效便捷。

了解更多 AI 绘画落地应用场景:

然后是「Edit」功能,支持对外部图像进行局部重绘和外绘扩展。

依旧是先上传一张图像,目标是将小女孩穿的花裙子换成了黄色裙子。先用画笔将需要涂抹出需要重绘的区域,然后在提示框中填写引导词 “a cute girl with a long yellow dress, standing on the grass in the park”,最后点击提交。

MJ 的重绘的速度非常快,处理效果也很好:重绘的区域不仅与原图无缝衔接,在色调、光照等方面也能做到一致。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

然后是外绘拓展功能。上传图像后,可以在左下角的 Aspect Ratio 中选择需要想拓展的尺寸,或者直接用鼠标拖动图像四边的灰色小短杠,手动拓展画布。选择 「Move/Resize」可以调整原图的尺寸和位置,提示词需要完整描述原图或需要添加的内容。

我将原本的方图拓展成了 9:16,同时扩充上下两边,效果非常惊艳。Midjourney 不仅正确延展了画面顶部的虚化的森林背景,连底部裙子的花纹、草地的纹理和光照细节也填充的毫无痕迹,一次处理的 4 张图像效果都很好,实在令人惊喜。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

图像处理好后,点击左下角的 「Download Image」可下载图像到本地,或者点击 「Upscale」放大图像,然后在 Create 或 Organize 版块查看放大结果。

二、使用技巧

「Edit」功能支持连续多次编辑,比如在重绘人物的衣服后,可以继续在新图的基础上涂抹+修改太提示词,为人物加上帽子或者其他内容。局部重绘和外绘拓展可以同时进行,这样就不用分两步操作了,更加方便。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

然后在「Retexture」中,由于它只会借鉴深度结构,所以在使用时,如果想让新图与原图内容相似,就需要准确细致都描述画面的元素、颜色等细节,否则 AI 会无法正确识别。此外在写提示词的时候,我们还可以加上参数,包括个性化(--p)、风格参考(--sref)、角色参考(--cref) 和 图像提示(image prompt),获取更好地效果。

比如在加上 --p 参数之后,重绘生成的图像风格就会发生改变;如果再加上 --sref 风格代码,就能指定生成某种固定的风格;也可以直接上传图像做为风格参考。因此对于同一张图,可以用多种方式让其演化出超多风格变体。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

目前外部编辑功能算是处于测试阶段,官方设置了比较严格的预防监管措施,所以一些正常的提示词也可能会被提示无法生成,比如我试过了不能用 “Disney”这个词(不亏是地表最强法务部),需要删除后才能继续。

而如果被检测到存在可以违反规定的滥用行为,可能导致账户被暂停或封禁,并且不退款,所以大家使用的时候还是要小心。

三、Ideogram 新功能 Canvas

了解 Ideogram 2.0:

就在 Midjourney 更新功能的前一天,另一款 AI 绘画神器 Ideogram 也上线了一项新功能 Canvas。它支持在原图的基础上,任意进行拓展、局部重绘、风格转换功能,效果也非常不错,和 Midjourney 的外部编辑功能类似。

而且 Ideogram 本身的文本渲染、排版设计能力就很强,再结合 Canvas 功能,就能随意在画面中添加、编辑英文文本内容,对设计师来说非常方便,大家也可以去尝试一下。

上一次 Ideogram 新的 2.0 版本刚发布,MJ 就宣布免费试用功能回归,这一次则是 Ideogram 抢在 MJ 前一天发布相似的更新,感觉两家有点杠上了的意思。不过 AI 相争,用户得利,这样我们或许就能以更低的成本得到更多好用的功能。

此次上线的两大编辑功能,实实在在解决了一直以来的用户痛点,也让 Midjourney 的竞争力上升到了一个新的水平。纵观目前的商业 AI 绘画工具,无论是生成质量、效果可控性、使用体验,还是辅助编辑功能、社区生态发展,难有一个可以与 MJ 一较高下。

而且据消息透露,Midjourney 还将在年底前上线新的 v7 模型、3D 生成功能和视频生成功能,这让人更期待它未来的发展了。感觉 MJ 的野心远不止一个单纯的 AI 绘画工具,而是一个超级 AI 创意生成工具,让人们的想法可以在瞬间变成现实呈现在眼前,完全颠覆传统的内容制作流程,想必我们的工作方式在未来也会因此发生巨大变化。

那么以上就是本期为大家介绍的的 Midjourney 最新功能「外部图像编辑」的相关内容。喜欢的话一定记得点赞评论支持一波,我会更有动力分享新的内容。

想更全面深入地学习 Midjourney 并做到灵活应用的话,也可以了解我最新制作的《零基础 AI 绘画入门完全指南》,我会从文本提示、图像提示、参数、命令等方面细致讲解 Midjourney 的操作方法,并结合实际案例分享超多干货和冷门小技巧,帮你打下坚实的基础,能有效利用 Midjourney 提升工作效率,完成商业出图需求。


相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。

热门文章