Midjourney是一个使用文字制作令人惊叹的人工智能图片的网络服务。它类似于Stable Diffusion,但有一些不同。Midjourney只能在互联网上使用,而且你必须付费。那么,为Midjourney付费值得吗?它与Stable Diffusion有何不同?让我们来看看。
Midjourney vs Stable Diffusion – 特征比较
您将在本节中找到Stable Diffusion和Midjourney之间的详细比较。与Midjourney不同,有多种方法可以使用Stable Diffusion。我将把我的分析局限于使用AUTOMATIC111,一个流行的Stable Diffusion GUI。
与Midjourney一样,您可以使用AUTOMATIC111作为web服务(例如Google Colab)。您也可以在Windows PC和Mac上本地使用它。Stable Diffusion新手?查看快速入门指南。
您将在整个文章中看到图像比较。我调整了提示词,并在每种情况下选择了模型来优化图像。因此,它们不是对相同提示词的直接比较,而是试图生成各种风格的相似图片。
Midjourney (v4)
Stable Diffusion (v1.5)
这是比较的总结。
Stable Diffusion (AUTOMATIC1111) | Midjourney | |
---|---|---|
Image Customization | High | Low |
Ease of getting started | Low | Medium |
Ease of generating good images | Low | High |
Inpainting | Yes | No |
Outpainting | Yes | No |
Aspect ratio | Yes | Yes |
Model variants | ~1,000s | ~ 10s |
Negative prompt | Yes | Yes |
Variation from a Generation | Yes | Yes |
Control composition and pose | Yes | No |
License | Permissive. Depends on the model used | Restrictive. Depends on the paid tier |
Make your own model | Yes | No |
Cost | Free | $10-$60 per month |
Model | Open-sourced | Proprietary |
Content Filter | No | Yes |
Style | Varies | Realistic illustration, artistic |
Upscaler | Yes | Yes |
Image Prompt | No | Yes |
Image-to-image | Yes | No |
Prompt word limit | No limit | ? |
图像自定义
在Stable Diffusion中,有更多的方法可以自定义图像,例如更改图像大小、应遵循提示的距离、生成的图像数量、seed值、采样器等。Midjourney中的选项较少。您可以更改纵横比、seed以及是否提前停止。
结论:Stable Diffusion 获胜。
易于入门
AUTOMATIC111安装起来有点困难。在你启动并运行它之后,你仍然需要找到并安装模型来获得你想要的样式。
Midjourney并不像它应该的那样用户友好,主要是因为他们选择使用Discord作为界面。但它仍然比开始容易十倍。
专业提示:想隐藏别人的代沟吗?创建一个新的私人服务器并邀请Midjourney机器人。你可以平静地生成图像。
结论:Midjourney获胜。
Midjourney (v5)
Stable Diffusion (DreamShaper)
易于生成良好的图像
Midjourney以其惊人的容易生成具有大量精细细节的艺术图像而闻名。你不需要很费劲,就能生成好的图像。如果事实是这样的话,它往往会忽略你的部分提示词,并提供令人惊讶的美学图像。
Stable Diffusion用户需要花更多的精力来构建一个好的提示词,并尝试使用模型来生成类似质量的图像。
结论:Midjourney获胜。
提示词Prompt
Stable Diffusion和Midjourney都支持提示词Midjourney和否定提示词negative prompt。两者都可以在提示词中为任何关键字添加权重。您可以使用AUTOMATIC111做更多的提示词技巧,例如混合两个关键字。
结论:平手
Midjourney (v4)
Stable Diffusion (Protogen) 机械鸽
模型多样化
Stable Diffusion是一个开源模型。人们制作了不同风格的模型。目前有一千多种型号可供下载。每个模型都可以使用LoRA 模型、embedding模型和hypernetworks进行进一步修改。最终的结果是有更多的模型,你没有时间去尝试。
Midjourney的模型比较有限。他们提供v1到v5型号,以及一些特殊型号,如niji、test、testp和HD。还有一个额外的参数,你可以“风格化”的图像。但整体产品让Stable Diffusion相形见绌。
结论:Stable Diffusion获胜
图像编辑Image editing
可以使用Stable Diffusion以多种方式编辑生成的图像。这包括通过inpainting修复仅再生图像的一部分,以及通过outpainting扩展图像。您也可以使用instruction-pix2pix模型简单地告诉Stable Diffusion您想要更改的内容。
遗憾的是,您无法使用Midjourney编辑图像。
结论:Stable Diffusion获胜。
Midjourney (v5)
Stable Diffusion (梦幻般的真实照片)真实的照片比较
风格
默认情况下,Midjourney v4会生成具有逼真插图样式的图像。它还可以在正确提示时生成其他艺术样式。在v5模型中可以拍摄逼真的照片。
Stable Diffusion可以生成更广泛的风格,从逼真的照片到抽象艺术,这要归功于热情的社区和易于训练的新模型。用户可以将模型与 embeddings、LoRA或hypernetowrks重新混合。它可以产生令人惊讶的效果,玩起来很有趣。
结论:Stable Diffusion获胜。
同一代的变化
两者都会对生成的图像产生轻微的变化。您可以在Midjourney中按下图像下方的V按钮。您可以在AUTOMATIC111中使用variational seed选项。
结论:平手。
输入图像
输出图像使用输出图像使用 Stable Diffusion ControlNet
控制构图和姿势
您可以通过多种方式控制Stable Diffusion中的构图和姿势:图像生成图像、深度生成图像、instruction-pix2pix和controlNet。在Midjourney中,最接近的选项是使用图像提示词,其作用类似于文本提示来控制图像生成。
结论:Stable Diffusion获胜
费用
使用AUTOMATIC111的Stable Diffusion可以免费使用您自己的计算机。相比之下,使用Midjourney每月至少要花费10美元。
结论:Stable Diffusion获胜。
许可证
许多人不知道您使用Midjourney生成的图像的所有权取决于您的付费级别。如果你不是付费用户,你什么都没有。你付更多的钱,你就有更多的权利。在任何情况下,Midjourney都可以使用您的图像,而无需事先询问。请参阅他们的服务条款。
相比之下,“Stable Diffusion”对您生成的图像没有任何权利。你可以分发和进一步训练模型,甚至出售它。但是,其他人进一步微调的模型可能会有额外的限制。因此,当您使用新型号时,请务必阅读许可证和使用条款。
结论:Stable Diffusion获胜。
Midjourney (v4)
Stable Diffusion (DreamShaper)肖像
内容过滤器Content Filter
在最初的Stable Diffusion v1软件中有一个内容过滤器,但社区很快共享了一个禁用过滤器的版本。因此,在实践中,v1模型中没有内容过滤器。v2更为棘手,因为NSFW内容是从训练图像中删除的。它无法通过设计生成明确的内容。相比之下,在Midjourney中,生成明确的图像是禁止的。即使在提示级别,它也会被阻止。如果你尝试,你可能会被禁止。
结论:Stable Diffusion获胜。
制作自己的模型
也许Stable Diffusion最大的吸引力是可以制作自己的模型。如果你不喜欢你看到的图片,你可以随时训练自己的模型。你可以使用dreambooth、文本反转textual inversion、LoRA、hypernetwork,或者简单地用你自己的图像进行额外的训练。不幸的是,您无法在Midjourney中做到这一点。
结论:Stable Diffusion获胜。
加大规模
Stable Diffusion和Midjourney都有放大版。AUTOMATIC111中提供的选项和参数更多。事实上,您可以很容易地安装其他的。
结论:Stable Diffusion获胜。
图像提示词Image prompt
您可以在MidJourney中将图像与文本提示一起用作提示词。它将生成图像提示词和文本提示词的内容组合。这与Stable Diffusion中的图像对图像不同,在Stable Diffusion中,输入图像充当初始图像,但不用于调节。Stable Diffusion最接近的是Stable Differsion Reimagine,它使用输入图像作为条件来代替文本提示。
结论:Midjourney获胜。
图像生成图像
目前,Midjourney没有提供图像生成图像功能,这是一种用于diffusion模型基于另一图像生成图像的方法。这并不奇怪,因为早期版本的Midjourney可能不是diffusion模型。
结论:稳定扩散获胜。
结论:Stable Diffusion获胜。
提示词限制Prompt limit
Midjourney过去曾表示,他们的用户指南中的提示词有大约60个单词的限制。但他们删除了该声明。另一方面,AUTOMATIC111现在支持无限制的提示长度。
结论:不清楚。
Midjourney是否使用Stable Diffusion?
Midjourneyv5模型不是Midjourney。他们就这么说。然而,v5的改进看起来与Stable Diffusion v2非常相似:提示词需要更加字面和具体。人们得到了五根手指…Midjourney能否分享Stable Diffusion v2的一些组件,比如OpenClip text embedding?由于运行成本较低,使用diffusion模型当然是有意义的。
Midjourney比Stable Diffusion更好吗?
我不想给出一个外交上的答案,但这真的取决于你在寻找什么。
Midjourney有自己独特的风格——高对比度、良好的照明和逼真的插图。创建具有大量细节的图像非常容易。你可以得到好的图像,而不需要非常努力。
另一方面,Midjourney也可以创建类似或更好的图像,但它需要更多的专业知识。因此,如果你准备迎接挑战,并想深入研究技术方面的问题,那么Midjourney非常适合你。
Midjourney与Stable Diffusion有何不同?
您可以阅读第一节中的逐点比较。主要区别在于运营模式和他们所迎合的用户。
Midjourney选择了一种专有的商业模式。他们负责模型开发、培训、调整和用户界面。一切都应该简单,开箱即用。你告诉模型你想要什么,你就会得到。
Stable Diffusion是一款包含开源生态系统的软件。每个人都可以访问模型的代码和训练数据。您可以在此基础上对模型进行微调,以实现您想要的目标。你猜怎么着?人们已经这么做了!有成千上万的模型是由像你一样的用户公开创建和共享的。
但这还不是全部。每周都有新的、令人惊叹的工具被创造出来,当人们有机会这样做时,他们的创造力之大让我从未停止过惊讶。
Midjourney (v5)
Stable Diffusion (现实主义引擎)
在Stable Diffusion中生成Midjourney
在Stable Diffusion中重新创建Midjourney图像是很棘手的,但也是可能的。我使用以下工作流程。
- 使用相同的提示词查看您得到了什么。您可以从v1.5基本模型开始。结果通常非常不同。
- 调整提示词的关键字。你可能会发现,Midjourney忽略了一些关键词,并随意添加了其他关键词。我通常会查看提示生成器中的关键字,看看如何达到相同的效果。
- 您可能希望添加一个反向提示词(通用提示词通常很合适)。
- 你肯定需要添加一些照明关键字。注意对比度和亮度。选择可以达到类似效果的照明关键字。
- 由于中途图像处于较暗的一侧,您可能需要添加类似LoRA的epi_noiseoffset。
- 最后,对不同的模型进行实验,并调整调整提示。
如果您想复制合成,请使用ControlNet。
我将写另一篇文章来详细说明这个过程。敬请关注!
我应该用哪一个?
Midjourney和Stable Diffusion都拥有庞大的用户群。他们有长处也有短处。
Midjourney使用情形
- 你想在没有深度学习曲线的情况下生成令人惊叹的图像。
- 你很忙,没有时间设置和学习模型。
- 你喜欢 Midjourney风格。
- 您正在寻找一个开箱即用的AI图像解决方案。
- 你不介意支付订阅费。
- 你同意他们的使用条款。
Stable Diffusion使用情形
- 你想要一个完全免费的解决方案。
- 您希望在本地运行所有内容。
- 你精通技术。
- 你喜欢修改你的设置,尝试模型组合,并使用新的工具。
- 您需要图像编辑功能。
- 你更喜欢开源工具。
- 您希望对图像进行更多控制。
我希望这篇文章能帮助你理解Midjourney和Stable Diffusion之间的区别,并帮助你决定使用哪一种。如果你能负担得起时间和资源,你应该同时尝试。你可能会发现两者都在你的工作流程中占有一席之地。我同时使用它们,并且经常被与另一个一起制作图像的挑战所吸引。