购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

3.1 梦境启航:Midjourney摄影创作模式详解

Midjourney是一款AI绘画(摄影创作)工具,它可以根据用户输入的文本描述,即提示词,生成相应的图像。在使用Midjourney时,我们需要通过一些参数来控制生成的摄影作品,这类似于在传统摄影中通过设置相机的参数,如光圈、快门和感光度等,来控制拍摄效果。在AI时代,这些相机设置被替换为计算机指令和各种参数调试,以生成所需的摄影作品。这些指令和参数就像是数码相机和镜头一样,是Midjourney的核心。它们分为前置参数和后置参数,需要我们认真学习和掌握。

Midjourney前置指令和用途见表3-1。

表3-1 Midjourney前置指令和用途

续表

3.1.1 Midjourney总体设置

1./settings

在文本框中输入“/s”,选择“settings”选项并按Enter 键,以打开Midjourney服务器或Midjourney Bot聊天窗口中的设置,如图3-1所示。可以看到,目前最新的Midjourney V6.0版本包含4行基本设置参数,如图3-2所示。

图3-1

图3-2

2.Use the default mode(V6)(模型类型选择)

Use the default mode(V6)下拉列表,可以设置Midjourney的不同模型类型。目前最新的版本为V6,如图3-3所示。本书中默认使用的便是此模型。当然也可以根据需要,在不同版本之间进行切换。在摄影创作方面,V6和V5.2版本的效果最为理想。切换版本后,所有生成的图片都会默认使用所选的版本。

图3-3

3.RAW Mode(原始模式)

RAW Mode选项可以唤起Style Raw参数。Style Raw模式是Midjourney根据用户反馈新增的功能之一。它通过提升图片的锐度和优化处理过程,使生成的图片具有更高的逼真度、清晰度和更好的细节表现,更适合于摄影作品的创作。

4.Stylize(风格类型)

Stylize选项可以唤起s参数。--s参数样式设置决定生成的图像与提示的匹配风格化程度,数值区间为0~1000。较小的数值生成的图像更符合提示词的描述,而较大的值会提高艺术质量,但可能会削弱与提示词的联系。数值越大,生成的摄影作品越具有艺术性。Style Low(低风格)对应--s 50,Style Med(中等风格)对应--s 100,Style High(高风格)对应--s 250,Style Very High(极高风格)对应--s 750。数值越大,生成的图像清晰度也就越高,但同时生成时间也会越长。

5.Public mode(公共模式)

默认情况下,隐私设置为“公开可见”,即你生成的作品其他用户可以看到。如果想不被别人看到,需要订购专业及以上套餐,用户才能将其设置为“隐身模式”。

6.Remix mode(混音模式)

Remix mode目前在V6版本中不可用,它是一项实验性功能,可能随时会被更改或删除,但在V5版本下可用。在这种模式下,单击“Variation”按钮,会弹出一个提示输入对话框。输入提示后,模型会在原有的基础上进行修改,生成的新图像既保留了一定的原始风格和特征,又能根据提示中提到的内容改变部分图像。

7.High Variation Mode(高变化模式)和Low Variation Mode(低变化模式)

这是V6版本增加的功能,即高、低变化模式,可以在高变化和低变化模式之间切换。默认的是High Variation Mode,可以控制生成图像进行微妙变化或强烈变化。高变化模式会比以前效果更强烈。如果想使用以前的效果,可以选择低变化模式。

8.Sticky Style(黏性样式)

Sticky Style允许用户将某个风格参数固定下来,在后续的图像生成过程中,即使不明确指定--style参数,系统也会自动应用该风格。这可以确保一系列生成的图像在风格上保持一致。当用户在Midjourney的设置中启用Sticky Style模式后,系统会自动记住用户最后使用的--style参数,并在以后的提示词中默认添加这个风格参数。这样,用户就可以确保他们的创作在风格上保持连贯性,而无须每次都重复指定相同的风格。

9.Turbo mode(闪电模式)

Turbo mode是一种全新的图像生成模式,其速度是Fast mode的2~4倍。

10.Fast mode(快速模式)

Fast mode可以快速出图,以提高效率,但成本较高。根据订阅费用不同,快速出图的时间也不同。标准计划目前是15小时的出图时间,专业计划是30小时,超级计划是60小时快速生图时间。

11.Relax mode(松缓模式)

Relax mode是一种成本较低的慢速模式,适用于大多数情况。在这种模式下,出图的时间会增加,但不限制出图的数量,只是速度会变慢。

12.Reset Settings(重置设置)

单击“Reset Settings”按钮,重置所有设置为默认设置。

3.1.2 Imagine(文生图)创作模式

在默认情况下,Midjourney使用/imagine命令来实现文生图的功能。我们只需要在文本框中输入“/imagine”,然后输入一个文本信息,按Enter键发送消息,系统便开始根据提供的文本生成对应的4张图像。此外,系统在下方还提供了丰富的选项和工具,以帮助用户实现更加精准和个性化的创作。具体的操作步骤如下。

01 在Midjourney下方的文本框中输入“/”,在弹出的列表中选择“/imagine”选项,如图3-4所示。在“/imagine prompt”后输入提示词“English Castles”,然后按Enter键确认,如图3-5所示。

图3-4

图3-5

02 可以看到,Midjourney Bot已经开始工作,并显示绘图进度。等进度达到100%时,即可看到生成了4张完整的图片。这里需要注意的是,Midjourney默认生成的图片都是正方形图片,而且即使是使用相同的提示词,每次生成的图片也不一样,如图3-6所示。单击图片可以放大查看,并可将图像保存,如图3-7所示。这样,我们就完成了基本的“文生图”操作。

图3-6

图3-7

Midjourney每次生成4张图像后,下方的“U1”“U2”“U3”“U4”按钮分别对应每一张图片,单击这些按钮可以放大对应的图片,并生成更加精细的图片。具体的操作步骤如下。

03 继续前文的操作。如果喜欢第二张图片的效果,即可单击“U2”按钮,如图3-8所示。可以看到,Midjourney将在第二张图像的基础上进行放大,生成更加精细的图像,如图3-9所示。

图3-8

图3-9

04 单击图像可以放大查看并保存,最终效果如图3-10所示。如果感觉这4张生成的图像效果都不理想,还可以单击“重画”按钮,系统会重新生成4张图像供我们选择,如图3-11所示。

图3-10

图3-11

05 以此类推,直到生成满意的图像效果为止,如图3-12所示。

图3-12

Midjourney每次生成4张图像后,最下方的“V1”“V2”“V3”“V4”按钮主要是以所选的图片为模板重新生成4张图像,并保持该图片的样式。具体的操作步骤如下。

01 继续前文的操作。如果我们喜欢第一张图像的样式,但觉得还不够精细和满意,可以单击“V1”按钮进行调整,如图3-13所示。这时,会弹出一个Remix Prompt对话框,我们可以在原始提示词的基础上增加新的提示词,或者修改原有的提示词。完成调整后,单击“提交”按钮,Midjourney Bot会根据新的提示词重新生成图像,如图3-14所示。

图3-13

图3-14

02 经过短暂运行后,可以看到在第一张图的基础上生成了4张全新的图像,如图3-15所示。我们可以放大观察这4张新图像,如图3-16所示,如果对新生成的图像不满意,还可以继续更改提示词并重新生成图像,直到对图像满意为止。

图3-15

图3-16

3.1.3 垫图(图生图)创作模式

垫图功能,即一种基于参考图像来生成新图像的技术,在Midjourney中起着至关重要的作用。它允许用户通过上传一张参考图像并结合提示词描述,来指导Midjourney Bot生成全新的图像。具体的操作步骤如下。

01 打开Midjourney下方的文本框,单击 按钮,在弹出的菜单中选择“上传文件”选项,或者直接双击 按钮,也可以直接拖动图片到此文本框,如图3-17所示;然后按Enter键确认,可以看到图像已被上传至服务器,如图3-18所示。

图3-17

图3-18

02 在图片上右击,在弹出的快捷菜单中选择“复制图像链接”选项,如图3-19所示,在浏览器中打开图片后,复制相应的网址。另外,待图像上传完成后,也可以直接将图像拖至“/imagine prompt”文本框中。接着,在“/imagine prompt”文本框内粘贴图像的网址,如图3-20所示。如果需要,也可以继续上传其他图像,添加多幅图像作为参考图。注意:在添加多幅图像时,每个网址之间需用空格隔开。

图3-19

图3-20

03 输入完参考图网址后,还可以加入其他提示词,这里输入“The foreground is flowers,the background is snow capped mountains and trees,the middle view is a river,and the slow gate--ar 3∶4”,如图3-21所示。可以看到Midjourney Bot在根据上传的参考图重新生成图像,如图3-22所示。

图3-21

图3-22

04 Midjourney Bot运行完成后,可以发现生成的4张图像和参考图非常相似,无论是构图还是光线等都匹配得不错,得到图3-23所示的图像效果。

图3-23

05 单击相应的图片,得到放大后的图像。通过对比图3-24(参考图)和图3-25(重新生成的效果图),我们可以看到,利用垫图创作模式可以在其他优秀作品的基础上进行二次创作,同时保留原始图像的风格。

图3-24

图3-25

在每次单击生成单张图片后,界面下方都会显示一些参数选项,这些选项允许我们进行进一步的控制或再次生成操作,熟练掌握这些参数对艺术创作来说是很有必要的。在V6版本中,系统提供了两种图像放大模式:Upscale(Subtle)和Upscale(Creative),如图3-26所示。这两种模式均能将图像放大2倍,但它们在处理图像细节时的方式有所不同。

Upscale(Subtle)是一种图像放大选项,其主要目的是提升图像的尺寸和分辨率,同时确保生成的图像与原图保持高度相似性。当单击“Upscale(Subtle)”按钮时,如图3-27所示,Midjourney Bot会生成一张放大2倍的图像。这张放大后的图像在细节和风格上尽量与原图像保持一致,变化非常微小,从而使放大后的图像与原图极为相似。此模式特别适合那些希望在放大图像时,能够保留原图艺术风格和细节特征的用户。

图3-26

图3-27

Upscale(Creative)是另一个图像放大选项,它允许用户将图像放大2倍。与Upscale(Subtle)不同,Upscale(Creative)在放大图像的同时,会加入新的元素或更改某些细节,从而进行创意性的重新构图。这意味着放大后的图像在风格和细节上可能与原图存在较明显的差异。此模式适合希望在放大图像的同时,追求更多艺术性和创造性表现的用户。通常情况下,选择Upscale(Subtle)模式即可满足需求。而图3-28则是采用Upscale(Creative)模式生成的图像。

图3-28

Midjourney的Vary(Subtle)选项会在保持原图基本内容和结构的基础上,仅对一些细节进行微妙的调整。这种图像变体适用于那些希望在维持整体视觉印象的同时,探索不同细节表现的用户。相对而言,Vary(Strong)选项则会生成与原图在风格、构图或主题上有较大创新的图像,这类图像可能在多个方面都与原图存在显著差异,变化更为显著,如图3-29所示。无论是单击Vary(Subtle)还是Vary(Strong)按钮,操作后都会弹出Remix Prompt对话框。用户可以选择不更改任何内容直接提交,也可以在更改局部提示词后再提交给Midjourney Bot进行处理,如图3-30所示。Midjourney Bot会根据所选择的方式重新生成4张图像,如图3-31所示。

图3-29

图3-30

Vary(Region)是一个功能强大的图像编辑功能,如图3-32所示。该功能允许用户对图像的特定区域进行精确的修改和调整,从而不仅增强了用户对图像创作的控制力,也极大地提升了创作过程的互动性和灵活性。

图3-31

图3-32

单击“Vary(Region)”按钮进入编辑器,用户可以通过简单的操作来选择想要修改的图像区域。在本例中,可以使用套索工具来选取山体部分,并输入相应的提示词来更换画面元素,之后单击 按钮进行确认,如图3-33所示。可以看到,系统对山体部分进行了修改,并重新生成了4张图像,如图3-34所示。该功能特别适合需要对局部元素进行更改,并希望新更改的局部能与周边元素完美融合的需求。图3-35为原始图,而图3-36则展示了新生成的图像。

图3-33

图3-34

图3-35

图3-36

“Zoom Out 2x”、“Zoom Out 1.5x”和“Custom Zoom”这3个按钮用于调整图像视角,如图3-37所示,它们可以分别将图像放大2倍、1.5倍或自定义倍数。这些功能不仅放大了图像,而且能在保持原始内容完整的同时扩展画布。“Zoom Out 2x”等是Midjourney V5.2版本中引入的新功能,为用户提供了一种全新的方式来探索和扩展图像的视觉空间,从而创造出更加引人入胜的视觉效果。单击“Zoom Out 2x”按钮,图像会被放大2倍,同时画布和视角都得到了相应的扩展,如图3-38所示。

图3-37

图3-38

该功能非常适合构图和画布局限的图像,并能将中景图像转变为全景图像。单击放大后,其中一张图片的最终效果如图3-39所示。

图3-39

“Make Square”按钮,如图3-40所示,用于调整非正方形图像的纵横比,使其变成正方形图像。此功能特别适用于需要将图像转换为正方形格式的情形,例如制作头像、封面或为社交媒体平台优化图片等。使用此功能,图像的原始内容将得到保留,同时画布大小会增加,以填充新的正方形空间。单击“Make Square”按钮后,经过机器人的处理,图像从3∶4的画幅变为了正方形画幅(1∶1),如图3-41所示。

图3-40

图3-41

另外,单击图像下方的箭头按钮,可以分别向左、向右、向上或向下扩展图像的尺寸;单击 按钮可以收藏生成的图像,方便在网站上查找;单击 按钮可以在Midjourney官网上打开图库中的图像,如图3-42所示。

图3-42

3.1.4 blend(图生图)多图混合创作模式

Midjourney的blend(图生图)多图混合创作模式,能够将两张或多张图片混合,从而创造出全新的图像。合成的图像往往不可预料,有时会带来意想不到的结果。具体的操作步骤如下。

01 在Midjourney下方的文本框内输入“/”,然后在弹出的列表中选择“/blend”选项,如图3-43所示。此时,系统会提示用户上传两张照片。用户可以通过拖放的方式从本地添加图像,或者从网络照片库中选择图像进行上传,如图3-44所示。

图3-43

图3-44

02 如果想要混合更多的图像,可以选择“image3”“image4”“image5”等参数来增加更多的图片。如果想更改生成画幅的比例,可以选择“dimensions”参数,此时会出现“Portrait(2∶3)”“Square(1∶1)”“Landscape(3∶2)”3个选项,如图3-45所示。混合图像的默认纵横比是1∶1(方形)。设置完成后按Enter键确认,Midjourney Bot将开始运算合成,如图3-46所示。请注意,Blend命令可能需要比其他命令更长的时间来运算,因为在处理之前需要先分析上传的所有图片。

图3-45

图3-46

可以看到,经过合成后的图像效果可能令人满意,也可能不尽如人意,如图3-47所示。如果不满意,可以再次进行合成。需要注意的是,目前的Blend功能还不支持添加文本提示,这意味着用户在混合过程中无法通过描述词来指导最终效果的具体特征。

图3-47

3.1.5 describe(图生文)反向生图创作模式

Midjourney的describe(图生文)反向生图创作模式,通过分析上传的图片或者用户提供的链接,生成4组不同的文本提示词。这些提示词大致描述了图像的内容,用户可以根据这些提示词重新生成与文字对应的图像。此功能对于AI绘画和创意设计来说非常有用,因为它使用户能够通过观察AI如何解读图像,更好地掌握使用AI生成图像时的提示词使用习惯和描述方式。利用这些信息,用户可以创作出与原始图像相关但包含独特元素的新图像,从而拓宽了AI艺术创作的范围和可能性。具体的操作步骤如下。

01 在Midjourney下方的文本框内输入“/”,然后从弹出的列表中选择“/describe”选项,如图3-48所示。此时,会弹出两个选项:“image”(图像)和“link”(链接)。本例中选择“image”选项。对于摄影作品,建议选择“image”选项,这样更便于观察效果,如图3-49所示。

图3-48

图3-49

02 上传想要参考的图像,或者直接将图像拖至此处即可,如图3-50所示。经过计算后,Midjourney Bot会根据上传的图像分析出4组文字提示词,供我们参考和使用,如图3-51所示。

图3-50

图3-51

03 4组提示词与图像下方的1、2、3、4按钮相对应。这里,单击1按钮,选择第一组提示词,此时会弹出“Imagine This!”对话框。在该对话框中,可以修改提示词,也可以选择保留Midjourney Bot给出的默认提示词。单击“提交”按钮后,Midjourney Bot已经开始工作,如图3-52所示。经过计算,它生成了4张以原始素材为模板的新图像,如图3-53所示。

图3-52

图3-53

04 其他生成的3组提示词也可以采用同样的方法生成新的图像,如图3-54~图3-56所示。

图3-54

图3-55

图3-56

05 单击“4”按钮后,系统会生成最后一组图像。在这组图像中,光影效果表现得相当理想。接着,单击“U1”按钮,选择并放大了第一张图像,以便对其进行更精细的调整,如图3-57所示。至此,我们完成了Describe(图生文)反向生图模式的操作,并得到了如图3-58所示的生成图像。此外,如果对生成的图像感到满意,还可以选择将其再次回传给Midjourney Bot以进行更加精细的刻画。这一操作将在后文中进行详细介绍。

图3-57

图3-58

3.1.6 remix(混合)图生图创作模式

remix(混合)图生图创作模式允许用户在不改变原始图像基本结构的情况下,对细节进行微调,以达到更符合个人创意的要求。这一功能特别适合希望进一步优化和定制图像的用户。

remix创作模式为用户提供了一种灵活的方式来探索不同的视觉可能性,使他们能够更精准地控制画面的构图和细节。在某些方面,该功能比使用种子值(seed value)和垫图(pad images)更为方便和直观。具体的操作步骤如下。

01 首先需要选择“Midjourne Model V5.1”模型,并且单击“Remix mode”按钮开启Remix模式,如图3-59所示。在“/imagine prompt”后输入提示词“two pigs”(两只猪),然后按Enter键确认,生成4张小猪的图像,再次单击“U1”按钮将第一幅图像放大,如图3-60所示。

图3-59

图3-60

02 单击图像下方的“Make Variations”按钮,对图像提示词进行修改,如图3-61所示。在弹出的“Remix Prompt”对话框中修改提示词,将“two pigs”更换成“two dogs”,然后单击“提交”按钮,如图3-62所示。

图3-61

图3-62

03 此时,可以看到图像按照原始的样式和风格,将图像中的小猪变换成了小狗,如图3-63所示。如果对最终的图像不满意,还可以重新生成,如图3-64所示。

图3-63

图3-64

3.1.7 sref(图生图)风格参考创作模式

sref(图生图)风格参考创作模式允许用户指定一个或多个图像网址作为风格参考,以生成类似风格的图像。其用法与之前的“垫图”模式类似,但提供了更多的灵活性和创造性控制。通过合理设置参数,用户可以控制生成内容的精确性和多样性。请注意,--sref参数目前仅适用于Midjourney V6或Niji V6版本。

sref的用法相对简单,其格式为:提示词(包括尾部参数比例等)+--sref+url(参考图像网址)。如果有多个参考图,其格式为:提示词(包括尾部参数比例等)+--sref+urlA(参考图像A的网址)+urlB(参考图像B的网址)+urlC(参考图像C的网址)。具体的操作步骤如下。

01 首先,我们需要上传一张参考图像。这里上传了一张国际摄影大师迈克尔·肯纳(Michael Kenna)的摄影作品,如图3-65所示。上传完成后右击,在弹出的快捷菜单中选择“在浏览器中打开”选项,并复制图像的链接地址。接着,在“/imagine prompt”后输入提示词“Mountain,reef,sea--sref https://s.mj.run/QlCdGztoPsM--iw 2.0--s 50”,然后按Enter键确认。等待Midjourney Bot计算完成后,便会生成4张小图,如图3-66所示。

图3-65

02 可以看到,图像经过调试后,生成了4张与参考图风格相似的图像。我们可以通过在图片URL后添加“::数字”的代码来调整每张参考图片的权重,其格式为:“--sref urlA::2 urlB::3 urlC::5”,其中urlC的权重最高,urlA的权重最低。另外,也可以通过添加“--sw”代码来设置整体风格化的强度,其默认值为100,数值范围从0(关闭)到1000(最高),最终效果如图3-67所示。

图3-66

图3-67

3.1.8 cref(图生图)角色参考创作模式

cref(角色参考),全称为Character reference或Character consistency,是一个专门用于在图像生成过程中保持角色外观一致性的功能。这对于创作系列作品或具有连贯性要求的角色设计尤为重要。

当创作者想要确保某个角色在不同场景或作品中保持一致的外观时,cref模式可以帮助记住该角色的特征,如服装、发型、配饰等,以便在接下来的创作中重复使用相同的风格和特征。

使用cref模式时,用户可以通过指定特定的提示词或图像来定义角色的外观。一旦设定,Midjourney会尽可能地在后续的图像生成中保持这一角色的一致性。对于摄影写真、婚纱摄影、专题创作、漫画制作、动画角色设计或任何需要多个视角但角色外观需保持一致的情况,cref模式都能提供极大的便利。请注意,--cref模式目前仅适用于Midjourney V6版本或Niji V6版本模型。

其用法与sref类似,格式为:提示词(包括尾部参数比例等)+--cref+url(参考图像网址)+--cw 0(0-100)。

当然,我们也可以同时使用“sref”和“cref”参数,这样既保证了参考图像的风格,也保证了角色的一致性。一般格式为:提示词(包括尾部参数比例等)+--cref+url(参考图像网址)+--cw 0(0-100)+--sref+url(参考图像网址)+--sw(0-1000)。具体的操作步骤如下。

01 首先,我们需要上传一张参考图像,这里上传了一张人像摄影作品,如图3-68所示。上传完成后右击,在弹出的快捷菜单中选择“在浏览器中打开”选项并复制图像的链接地址。请注意,Cref并不复制参考图像的艺术风格,而是更注重图像本身的角色参考。在“/imagine prompt”后输入提示词“A lady is teaching a course by a teacher--ar 3∶2--cref https://s.mj.run/KriuGjRu7fk--cw 0”。这里,先将“--cw”的数值设置为0,“--cw 0”意味着只专注于复制角色的面孔,这对于更换服装或发型非常有帮助。然后按Enter键确认,等待Midjourney Bot计算完成后,便会生成4张小图,如图3-69所示。可以看到生成的图像人物参考了角色的面孔,服装也进行了更换,其中一张小图的放大效果如图3-70所示。

图3-68

图3-69

图3-70

02 在“/imagine prompt”后输入提示词“A lady is conducting experiments at a university research institute--ar 3∶2--cref https://s.mj.run/KriuGjRu7fk--cw 100”。这里,将“--cw 0”更换成了“--cw 100”。“--cw 100”参数不仅专注于复制角色的面孔,还专注于头发和服装的部分,100为默认值。然后按Enter键确认,查看生成的图像,如图3-71所示。可以看到生成的图像人物不仅参考了角色的面孔,还参考了服装和头发部分,效果如图3-72所示。

图3-71

图3-72 ml/E1prqnL2LNu7YJpIYGoPFJmRYOVdjfyvWYDwFB2pk2iH9inchlLG6hlSew2XU

点击中间区域
呼出菜单
上一章
目录
下一章
×