标签: AI绘画

  • 九个Midjourney关键词网站,附AI绘画Prompt关键词列表

    继上期奇点世界给大家送上一些Midjourney关键词后,很多人问:

    还有没有?还有没有?还有没有?
    良心哥表示当然

    有!有!有!(ÒωÓױ)

    为了让大家提高工作效率,本期奇点世界将给大家推荐一些灵活高效Midjourney关键词网站,这样各位就可以直接参考别人的AI关键词进行创作了,听起来是不是很棒棒啊!其实当AI盛行后,网上Ai关键词网站就如雨后春笋般一样出现,近期良心哥也有在试玩了下,感觉挺不错,但是想关键词会让人想到词穷,这不,这两天利用了些闲于时间在在众多的AI关键词网站中,选了10个超实用的关键词网站,比较适合设计师、摄影师、插画师等图像工作者,如果你还不会Midjourney怎么注册和入门,可翻翻奇点世界之前的文章,好了,闲言碎语不要讲,快来看看今天的关键词干货吧↓

    一、PromptHero

     https://prompthero.com/
    PromptHero是一款免费的关键词搜索引擎,它能够提供按模型搜索,包括Stable Diffusion、Midjourney、Dell-E等文本-图像模型,风格类型涵盖了肖像、二次元、时尚、摄影等AI图片,且输出的图像品质极高。

    演示一下↓

    比如现在点击搜索浮世绘Japanese Ukiyo-e,就会出现由Stable Diffusion,DALL-E和Midjourney等AI图像生成模型生成的最佳(Best)图像,每个结果的精细程度都非常高。对于一些AI新手来说具有很高的学习参考价值~

    检索出对应作品后,可以选择对喜欢的图片进行复制关键词,可在此基础上进行调整优化,也未尝不可!

    关键词描述:日本机器人艺伎的写实肖像画与汉字符号和贴花,辛烷值渲染,复杂的细节,4k,虚幻引擎5,机器,irobot

    为了验证,我将复制的关键词放入MidJourney中进行实验,生成的作品大体的方向是对的,但仍需在词语上进行添加或删除来达到理想的画面。

     

     

     

    二、ArtHub.ai

    https://arthub.ai/

    Arthub.ai 是一个连接顶级社区艺术家和设计师的网站,你可以按照不同的图像类型搜索并查看生成的AI绘画,包括建筑、时尚、珠宝、LOGO、插画、三维等等。

    除此之外!该平台还提供了一个关键词库,让你可以通过查看对应页面来了解该图像是如何生成的,并可使用这些关键词自行生成自己的图像!

    这里同样也去MidJourney进行验证下,看看效果如何?

     

     

    三、LREA.AI

     https://search.krea.ai

    又一款不错的AI网站,极简的网页设计让不由自主的点击进去,这个站点收藏了数百万张Stable Diffusion生成的实例,同样支持关键词检索功能。

    这个网站最宝藏的用途是:不仅有图片的关键词介绍,还会出现大量的相似作品,有点类似pin和花瓣那种模式。可以查看借鉴其他作品的类似关键词,进行逻辑性的整合参考。

    关键词参考

    相关图片↓

     

     

    其他类似作品

    用它的关键词同样去mid去试验,发现在效果呈现上会有一定出入

    不过可以根据当前的词汇进行调整,同时它有「大量类似作品生成的库」,只要逻辑顺序正确,就不用担心产出不了你想要的作品~

     

     

    四、LEXICA.ART

    https://lexica.art

    lexica的AI图片风格倾向于色彩浓厚、饱和度极高的插画,喜欢色彩丰富画面的朋友可以参考作为创作灵感。

    使用非常简单,只要在搜索框输入简单的关键词或者上传图片就可以了,然后该网站便会直接为你提供大量风格不同的照片或者风格类似的作品。

    要想查看关键词,只可点击照片就能看到完整的AI关键词,全部免费开源,点击复制按钮就能直接提取。

     

    惊喜提示:在lexica提取的关键词,发现在mid生成的图片出入不大,基本还原了画面相比较还会更精致些。

     

    五、REPLICATE

    https://replicate.com

    这个网站同样也可以自动生成关键词,不过这个相比其他的话,有点不一样,或者说这是他的特色功能,要想拿到关键词,只需要上传你想要的相关图片素材,它就可以根据图片自动描述对应关键词,让你去mid里面操作~

    具体操作也是比较简单,首先进入网站首页点击explore

    找到imagine to text

    点击methexis-inc/img2prompt进入demo

    然后上传一张你找好的参考图,点击submit等待生成

    这里我尝试上传了YNSJ的头部动图,右侧便生成了对应关键词,不过现在midjourney已经有了喂图功能,也可以提供相同的服务!

     

     

    六、promptoMANIA

     https://promptomania.com/

    一款编写智能AI绘画关键词的在线生成工具,提供多种智能AI绘画工具(Midjourney、Stable Diffusion、DreamStudio等)的关键词文本描述模板。

    在使用的时候,需要先选择上述三种AI工具模型中的一种,然后输入关键词,选择画风类型

    最终工具可以自动生成所选AI工具规范的AI绘画关键词,提供色彩、风格、插画师、图片比例等描述词,帮你描述出想要的画面,然后你就可以去Mid去黏贴了~

     

    七、MidJourney提示助手

    https://prompt.noonshot.com/

    一款专门针对Midjourney的关键词提示网站,没其他了,就这么直接,没有任何作品展示,就是简单关键词提示!

     

    八、Midlibrary

     https://www.midlibrary.io/categories

    Midlibrary它提供了大量的艺术家风格列表,包括 2078 种Midjourney AI 的流派、艺术运动、技巧和艺术家风格。涵盖了插画、摄影、电影、雕像、版画等多个行业,同时也给我们提供了大量的风格参考。

    如果在用midjourney绘画时你不知道要用什么风格,可以在这个网站上找到灵感,然后再返回mid进行书写发送指令!

    既然链接点开了,那良心哥也试玩一下,发现不同的风格或艺术家下面有很多类型参考并提供对应关键词↓

    点开一个风格就可以详细看到v4,v5,v3,对应的便是MID模式下该种风格的预览图。

     

    九、Midjourney关键词和风格收录网站

    http://navo.top/UjMjiq

    这个网站收录了很多关键词和风格,而且还有效果预览方便挑选,这里就不啰嗦了,没有操作难度,你能进得去便看的明白!

    看完九个网站是不是已经迫不及待想去玩Midjourney了?但现在已经没有免费试玩了,所以你后期打算入手了又不想去国外的菜鸟区玩,可以来Midjourney服务器玩。

     

     

    奇点世界再送一些关键词

    第十款我们推荐的不是关键词网站

    而是奇点世界精心整理的一些有用的AI关键词列表

    作为文章压轴送给大家

    各位可以配合第一期的关键词使用

    正向提示词

    正向提示词 描述
    HDR, UHD, 8K (HDR、UHD、4K、8K和64K) 这样的质量词可以带来巨大的差异提升照片的质量
    best quality 最佳质量
    masterpiece 杰作
    Highly detailed 画出更多详细的细节
    Studio lighting 添加演播室的灯光,可以为图像添加一些漂亮的纹理
    ultra-fine painting 超精细绘画
    sharp focus 聚焦清晰
    physically-based rendering 基于物理渲染
    extreme detail description 极其详细的刻画
    Professional 加入该词可以大大改善图像的色彩对比和细节
    Vivid Colors 给图片添加鲜艳的色彩,可以为你的图像增添活力
    Bokeh 虚化模糊了背景,突出了主体,像 iPhone 的人像模式
    (EOS R8, 50mm, F1.2, 8K, RAW photo:1.2) 摄影师对相机设置的描述
    High resolution scan 让你的照片具有老照片的样子赋予年代感
    Sketch 素描
    Painting 绘画

    艺术风格

    艺术风格 艺术家
    肖像画(Portraits) Derek Gores, Miles Aldridge, Jean Baptiste-Carpeaux, Anne-Louis Girodet
    风景画(Landscape) Alejandro Bursido, Jacques-Laurent Agasse, Andreas Achenbach, Cuno Amiet
    恐怖画(Horror) H.R.Giger, Tim Burton, Andy Fairhurst, Zdzislaw Beksinski
    动漫画(Anime) Makoto Shinkai, Katsuhiro Otomo, Masashi Kishimoto, Kentaro Miura
    科幻画(Sci-fi) Chesley Bonestell, Karel Thole, Jim Burns, Enki Bilal
    摄影(Photography) Ansel Adams, Ray Earnes, Peter Kemp, Ruth Bernhard
    概念艺术家(视频游戏)(Concept artists (video game)) Emerson Tung, Shaddy Safadi, Kentaro Miura

    反向提示

    反向提示词 描述
    mutated hands and fingers 变异的手和手指
    deformed 畸形的
    bad anatomy 解剖不良
    disfigured 毁容
    poorly drawn face 脸部画得不好
    mutated 变异的
    extra limb 多余的肢体
    ugly 丑陋
    poorly drawn hands 手部画得很差
    missing limb 缺少的肢体
    floating limbs 漂浮的四肢
    disconnected limbs 肢体不连贯
    malformed hands 畸形的手
    out of focus 脱离焦点
    long neck 长颈
    long body 身体长

    视角

    提示词 描述
    dynamic angle 动态角度
    from above 从上方
    from below 从下面
    wide shot 广角宽景
    Aerial View 空中俯瞰视图

    主体

    提示词 描述
    full body shot 全身
    cowboy shot 半身
    close-up shot 接近

    光线

    提示词 描述
    cinematic lighting 电影光
    dynamic lighting 动感光

    视线

    提示词 描述
    looking at viewer 画面中的物体或人物在直接面对画面或观众
    looking at another 两个角色正在相互交流或对视
    looking away 看着别的方向,不直视对方
    looking back 回头看
    looking up 摄像机或观察者的视角调整为向上看

    画风

    提示词 描述
    sketch, one-hour drawing challenge 草图、速写、手绘风
    photograph, photorealistic 照片

    身体状态

    提示词 描述
    blush 脸红
    wet sweat 大汗
    flying sweatdrops 飞汗

    衣服

    提示词 描述
    china dress 旗袍
    sailor dress 水手服
    school uniform 校服
    sailor senshi uniform 《美少女战士》中战士们穿着的制服,水手服
     

  • AI绘画工具Stable Diffusion安装教程:在线版、本地部署及常见错误问题

    在 Midjourney 关闭免费通道后,本地部署似乎才是更快乐的玩法。经过两天折腾,我深深迷上了 Stable Diffusion。

    AI 零基础的我也在探索中,不断学习。AI 绘画背后的技术值得每一个人去学习,对技术的好奇心远比玩弄一个工具更有趣!

    什么是 Stable Diffusion?

    2022 年发布的稳定扩散(Stable Diffusion[1]) 是一个文本到图像生成的深度学习模型。它主要用于根据文本的描述产生详细图像,尽管它也可以应用于其他任务,如内补绘制、外补绘制,以及基于文本提示(英文)生成图像到图像的转换。该模型是由初创公司 Stability AI[2] 与一些学术研究机构和非营利组织合作开发的。

    Stable Diffusion 是一种潜在扩散模型,它的开发由初创公司 Stability AI 资助和塑造,模型的技术许可证由慕尼黑大学的 CompVis 小组发布。开发工作由 Runway[3] 的 Patrick Esser 和 CompVis[4] 的 Robin Rombach 领导,他们是早期发明稳定扩散使用的潜在扩散模型架构的研究人员之一。Stability AI 还将 EleutherAI[5] 和 LAION[6](一家德国非营利组织,他们组织了 Stable Diffusion 训练的数据集)列为该项目的支持者。

    Stable Diffusion 的代码和模型权重已开源,并且可以在大多数消费级硬件上运行,配备至少 8 GB VRAM(Video random-access memory[7])的适度 GPU。而以前的专有文生图模型(如 DALL-E[8] 和 Midjourney[9])只能通过云服务访问。

    在线访问Stable Diffusion

    Stable Diffusion Online

    Stable Diffusion 在线版虽然使用简单,但是大部分为阉割版(不支持模型选择,不支持否定提示(Negative Prompt),不支持插件等等),无法发挥其更大的能力。

    • Stable Diffusion 2.1 Demo[10]:Stable Diffusion 2.1 是 StabilityAI 最新的文本到图像模型。

     

    • Stable Diffusion 1 Demo[11]:Stable Diffusion 是一种最先进的文本到图像模型(旧版),可从文本生成图像。

    • DreamStudio Beta[12]:更快的生成图片及 API 访问。初始额度 25 credits,每次生成图片需要消耗 credits,消耗完了需要进行购买($10 = 1,000 credits)。

     

    • Stable Diffusion Online[13]:只需输入提示,然后单击生成按钮。无需代码即可生成图像!

     

    从以上几个网站大致可以看出,图片生成主要包含四部分:

    • Prompt 输入框:输入提示,即需要生成图片的文字描述,一般为英文短句或单词,以逗号进行分隔。
    • Negative Prompt 输入框:除了一些功能阉割网站不支持此功能外,Stable Diffusion 早期版本也不支持。否定提示也是一种输入提示,用来指定生成的图像中不应包含的内容。这些提示可用于微调模型的输出并确保它不会生成包含某些元素或特征的图像(达到过滤的目的)。和提示用法一样,以逗号进行分隔。(注意:否定提示可以阻止生成特定的事物、样式或修复某些图像异常,但并非 100% 有效)
    • Generate image 按钮:提示输入完成后,点击此按钮则开始生成图片。
    • 图片展示区:此区域用来展示图片生成后的结果。

    本机安装Stable Diffusion

    • Stable Diffusion web UI[14]:基于 Gradio[15] 开发的浏览器界面。提供了众多实用功能,支持插件,强烈推荐。

     

     

    • Easy Diffusion 2.5[16]:在计算机上安装和使用 Stable Diffusion 的最简单的一键式方法。提供用于从文本提示和图像生成图像的浏览器 UI。只需输入文本提示,然后查看生成的图像(注意:Windows 有安装程序,Mac,Linux 需要下载项目后通过脚本启动)。

     

    • Draw Things (Mac 版)[17]:基于流行的 Stable Diffusion 模型,Draw Things 可帮助你在几分钟而不是几天内创建你心中的图像。它是免费的,在你的设备上 100% 离线运行所有内容以保护你的隐私(同时支持 iPhone 和 iPad)。

    • MochiDiffusion (Mac 版)[18]:在 Mac 上原生运行 Stable Diffusion

    • Diffusers (Mac 版)[19]:集成了 Core ML 的 Stable Diffusion 简单应用

     

    在新版 Mac (M1,M2 芯片)上,Draw Things 和 MochiDiffusion 都可以启用 CoreML(机器学习) 来加速图片生成。但它们和 Stable Diffusion web UI 相比,功能上还是差了一些(比如:插件,更多参数配置等)。

    安装 Stable Diffusion web UI

    仓库地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui

    系统环境(前置条件):

    • Python:项目依赖 Python 环境来运行,所以先保证系统中已安装过 Python,并将其加入环境变量(Python 下载[20])。
    • Git:需要使用 git 来同步最新代码到本地(Git 下载[21]
    • 下载项目:Git 安装完成后,可以通过以下命令将下面下载到本地
      git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
      

    注意:因为项目是通过 git clone 方式下载到本地的,所以如果远程仓库有最新发布,我们只需在项目根目录下执行 git pull 即可同步最新代码(如果你二次编辑了项目中的文件,请查看 git 文档,了解如何合并代码,解决冲突等)。

    Windows

    1. 安装 Python 3.10.6 和 git,并将它添加到系统环境变量中。
    2. 下载项目
      git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
      
    3. 以普通非管理员权限从 Windows 资源管理器运行 webui-user.bat
    4. 它会自动下载相关依赖并启动一个服务。默认 URL 为 http://127.0.0.1:7860

    Linux

    1. 安装依赖:
      # 基于 Debian:
      sudo apt install wget git python3 python3-venv
      
      # 基于 Red Hat:
      sudo dnf install wget git python3
      
      # 基于 Arch:
      sudo pacman -S wget git python3
      
    2. 下载项目:
      bash <(wget -qO- https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh)
      
    3. 在项目根路径下找到 webui.sh,通过命令行来运行它。
    4. 它会自动下载相关依赖并启动一个服务。默认 URL 为 http://127.0.0.1:7860

    Mac

    1. 检查系统是否安装过 brew[22]
    2. 通过 brew 安装依赖,如果系统中已存在某个依赖则跳过它:
      brew install cmake protobuf rust [email protected] git wget
      
    3. 下载项目:
      git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
      
    4. 在项目根路径下找到 webui.sh,通过命令行来运行它。
    5. 它会自动下载相关依赖并启动一个服务。默认 URL 为 http://127.0.0.1:7860

    Stable Diffusion模型

    Stable Diffusion基础模型

    如果你还没有任何可用模型,可以从 Hugging Face[23]下载 Stable Diffusion 模型。模型格式一般使用 .ckpt 或 .safetensors 作为文件扩展名。找到文件,点击即可下载。这里推荐一些常用官方模型:

    • Stable DIffusion 1.4[24] (sd-v1-4.ckpt[25])
    • Stable Diffusion 1.5[26] (v1-5-pruned-emaonly.ckpt[27])
    • Stable Diffusion 1.5 Inpainting[28] (sd-v1-5-inpainting.ckpt[29])

    Stable Diffusion 2.0 和 2.1 需要模型和配置文件,生成图像时图像宽度和高度需要设置为 768 或更高:

    • Stable Diffusion 2.0[30] (768-v-ema.ckpt[31])
    • Stable Diffusion 2.1[32] (v2-1_768-ema-pruned.ckpt[33])

    Stable Diffusion模型市场

    除 Hugging Face 可以下载模型外,以下这些地方也可以探索:

    • Civitai[34]:是一个稳定扩散 AI 艺术模型的平台。收集了来自 250 多位创作者的 1,700 多个模型。我们还收集了来自社区的 1200 条评论以及 12,000 多张带有提示的图像,来帮助你入门。
    • Stable Foundation – models-embeddings:在 models-embeddings[35] 频道中用户分享了各种模型预览,附带下载链接。

    Stable Diffusion模型协议

    每个模型在发布时都会发布声明或协议,我们在使用模型时,一定要仔细阅读它们(比如:禁止使用真人训练,禁止商用等等)。我们应该在不违反法律,道德,协议的情况下,进行自己的创作。

    stable-diffusion-webui项目初识

    stable-diffusion-webui 是一个包含源代码的项目,所以对于非编程人员来说,它可能是复杂的存在。但是我们刚上手时,只需要关注几个文件夹和文件就够了。

    .
    ├── models # 下载的模型存放在此处
    │   ├── Lora # 📁 Lora 模型
    │   │   ├── lyriel_v13.safetensors # 模型文件
    │   │   └── ... # 其他模型文件
    │   ├── Stable-diffusion # 📁 基础模型
    │   │   ├── v1-5-pruned.ckpt # 模型文件
    │   │   └── ... # 其他模型文件
    │   ├── VAE # 📁 VAE 模型
    │   │   ├── vae-ft-mse-840000-ema-pruned.safetensors # 模型文件
    │   │   └── ... # 其他模型文件
    │   └── ... # 其他
    ├── outputs # 🏞️ 图片输出位置
    │   ├── img2img-grids # 网格图(2x2)
    │   ├── img2img-images # 图生图
    │   ├── txt2img-grids # 网格图(2x2)
    │   ├── txt2img-images # 文字生图
    │   └── ... # 其他
    ├── repositories # 🗑️ 缓存仓库,可删除
    ├── venv # 🗑️ 虚拟环境,一个独立的 Python 运行环境,可删除
    ├── webui-user.bat # ⚙️ Windows 启动脚本用户配置
    ├── webui-user.sh # ⚙️ Linux,Mac 启动脚本用户配置
    ├── webui.bat # 🟢  Windows 启动脚本
    ├── webui.sh # 🟢 Linux,Mac 启动脚本
    └── ... # 其他
    
    • Windows:
      • 启动项目:执行 webui.bat
      • 配置环境变量,追加启动参数:编辑 webui-user.bat
    • Mac 或 Linux:
      • 启动项目:执行 webui.sh
      • 配置环境变量,追加启动参数:编辑 webui-user.sh

     

     

     

    Stable Diffusion名词解释

    • LoRA 模型(LoRA: Low-Rank Adaptation of Large Language Models[36]):LoRA 是一种在大型语言模型的预训练权重基础上,注入可训练秩分解矩阵,从而减少可训练参数数量,提高训练吞吐量和减少 GPU 内存需求的方法。相比于完全微调模型,LoRA 可以在不增加推理延迟的情况下,达到相当甚至更好的模型性能(简单来说它就是基础模型的微调模型,比如修改风格为国风,水墨风等)。
    • VAE(Variational Autoencoder[37]):VAE 代表变分自动编码器。它是神经网络模型的一部分,可对来自较小潜在空间的图像进行编码和解码(极大减少了显存),从而使计算速度更快。
    • Model 与 Lora 的关系(以书本世界为例):
      • Model:百科全书
      • LoRA: 百科全书中的一个额外条目,作为一个“便利贴”塞进其中。
    • .ckpt 与 .safetensors:它们都是一种用于分发模型的文件格式。
      • .ckpt:是很多包含 Python 代码的压缩文件,利用它们就像解压缩一样简单。因包含大量代码,意味着它可能包含恶意代码,加载未知不信任来源的 .ckpt 文件,很可能会危害你的计算机。
      • .safetensors:只包含生成所需的数据,更难被利用。不包含代码,所以加载 .safetensors 文件也更安全和快速。

    Stable Diffusion常见问题

    Stable Diffusion安装依赖失败

    首次启动服务时,stable-diffusion-webui 需要下载大量依赖包,主要会出现以下情况:

    • 卡住不动:大概率是网络不佳,因为有些依赖资源地址在国内是无法访问的,这时需全程启用代理,避免网络连接问题。
    • 下载报错:有些依赖版本和自身系统不兼容,会导致报错,这时可根据具体报错信息去网上搜索解决方案。
    • 启动成功,但部分依赖下载失败:可以通过手动安装来解决此类问题(例如在项目根路径下执行 pip3 install xxx,至于执行什么命令可根据报错信息中的提示进行尝试)。

    Mac 常见错误

    Stable Diffusion ERROR: No matching distribution found for tensorflow

    Error running install.py for extension /Users/lencx/github/lencx/ai-art/stable-diffusion-webui/extensions/sd_smartprocess.
    Command: "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/venv/bin/python3" "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/extensions/sd_smartprocess/install.py"
    Error code: 1
    stdout: loading Smart Crop reqs from /Users/lencx/github/lencx/ai-art/stable-diffusion-webui/extensions/sd_smartprocess/requirements.txt
    Checking Smart Crop requirements.
    
    stderr: Traceback (most recent call last):
      File "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/extensions/sd_smartprocess/install.py", line 9, in <module>
        run(f'"{sys.executable}" -m pip install -r "{req_file}"', f"Checking {name} requirements.",
      File "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/launch.py", line 97, in run
        raise RuntimeError(message)
    RuntimeError: Couldn't install Smart Crop requirements..
    Command: "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/venv/bin/python3" -m pip install -r "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/extensions/sd_smartprocess/requirements.txt"
    Error code: 1
    stdout: Collecting ipython==8.6.0
      Using cached ipython-8.6.0-py3-none-any.whl (761 kB)
    Collecting seaborn==0.12.1
      Using cached seaborn-0.12.1-py3-none-any.whl (288 kB)
    
    stderr: ERROR: Could not find a version that satisfies the requirement tensorflow (from versions: none)
    ERROR: No matching distribution found for tensorflow
    

    解决方案:打开 stable-diffusion-webui/extensions/sd_smartprocess/requirements.txt 文件修改 tensorflow 为 tensorflow-macos,这是因为在 mac 上匹配不到 tensorflow 安装包,将其修改为 tensorflow-macos 即可。

    • What is the proper way to install TensorFlow on Apple M1 in 2022[38]
    • Get started with tensorflow-metal[39]

    Stable Diffusion ModuleNotFoundError: No module named ‘fairscale’

    Civitai: API loaded
    Error loading script: main.py
    Traceback (most recent call last):
      File "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/modules/scripts.py", line 256, in load_scripts
        script_module = script_loading.load_module(scriptfile.path)
      File "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/modules/script_loading.py", line 11, in load_module
        module_spec.loader.exec_module(module)
      File "<frozen importlib._bootstrap_external>", line 883, in exec_module
      File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed
      File "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/extensions/sd_smartprocess/scripts/main.py", line 3, in <module>
        from extensions.sd_smartprocess import smartprocess
      File "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/extensions/sd_smartprocess/smartprocess.py", line 15, in <module>
        from extensions.sd_smartprocess.clipinterrogator import ClipInterrogator
      File "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/extensions/sd_smartprocess/clipinterrogator.py", line 14, in <module>
        from models.blip import blip_decoder, BLIP_Decoder
      File "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/repositories/BLIP/models/blip.py", line 11, in <module>
        from models.vit import VisionTransformer, interpolate_pos_embed
      File "/Users/lencx/github/lencx/ai-art/stable-diffusion-webui/repositories/BLIP/models/vit.py", line 21, in <module>
        from fairscale.nn.checkpoint.checkpoint_activations import checkpoint_wrapper
    ModuleNotFoundError: No module named 'fairscale'
    

    解决方案:手动安装 fairscale 依赖(相关 issue:installed but it says ModuleNotFound?[40]

    pip3 install fairscale

    References

    [1]Stable Diffusion: https://github.com/Stability-AI/stablediffusion[2]Stability AI: https://stability.ai[3]Runway: https://runwayml.com

    [4]CompVis: https://github.com/CompVis

    [5]EleutherAI: https://www.eleuther.ai

    [6]LAION: https://laion.ai

    [7]Video random-access memory: https://en.wikipedia.org/wiki/Video_random-access_memory

    [8]DALL-E: https://openai.com/research/dall-e

    [9]Midjourney: https://midjourney.com

    [10]Stable Diffusion 2.1 Demo: https://huggingface.co/spaces/stabilityai/stable-diffusion

    [11]Stable Diffusion 1 Demo: https://huggingface.co/spaces/stabilityai/stable-diffusion-1

    [12]DreamStudio Beta: https://beta.dreamstudio.ai/generate

    [13]Stable Diffusion Online: https://stablediffusionweb.com

    [14]Stable Diffusion web UI: https://github.com/AUTOMATIC1111/stable-diffusion-webui

    [15]Gradio: https://github.com/gradio-app/gradio

    [16]Easy Diffusion 2.5: https://github.com/cmdr2/stable-diffusion-ui

    [17]Draw Things (Mac 版): https://drawthings.ai

    [18]MochiDiffusion (Mac 版): https://github.com/godly-devotion/MochiDiffusion

    [19]Diffusers (Mac 版): https://github.com/huggingface/swift-coreml-diffusers

    [20]Python 下载: https://www.python.org/downloads

    [21]Git 下载: https://git-scm.com/download

    [22]brew: https://brew.sh

    [23]Hugging Face: https://huggingface.co/models?pipeline_tag=text-to-image&sort=downloads

    [24]Stable DIffusion 1.4: https://huggingface.co/CompVis/stable-diffusion-v-1-4-original

    [25]sd-v1-4.ckpt: https://huggingface.co/CompVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt

    [26]Stable Diffusion 1.5: https://huggingface.co/runwayml/stable-diffusion-v1-5

    [27]v1-5-pruned-emaonly.ckpt: https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.ckpt

    [28]Stable Diffusion 1.5 Inpainting: https://huggingface.co/runwayml/stable-diffusion-inpainting

    [29]sd-v1-5-inpainting.ckpt: https://huggingface.co/runwayml/stable-diffusion-inpainting/resolve/main/sd-v1-5-inpainting.ckpt

    [30]Stable Diffusion 2.0: https://huggingface.co/stabilityai/stable-diffusion-2

    [31]768-v-ema.ckpt: https://huggingface.co/stabilityai/stable-diffusion-2/resolve/main/768-v-ema.ckpt

    [32]Stable Diffusion 2.1: https://huggingface.co/stabilityai/stable-diffusion-2-1

    [33]v2-1_768-ema-pruned.ckpt: https://huggingface.co/stabilityai/stable-diffusion-2-1/resolve/main/v2-1_768-ema-pruned.ckpt

    [34]Civitai: https://civitai.com

    [35]models-embeddings: https://discord.com/channels/1002292111942635562/1047197565365538826

    [36]LoRA: Low-Rank Adaptation of Large Language Models: https://arxiv.org/abs/2106.09685

    [37]Variational Autoencoder: https://en.wikipedia.org/wiki/Variational_autoencoder

    [38]What is the proper way to install TensorFlow on Apple M1 in 2022: https://stackoverflow.com/questions/72964800/what-is-the-proper-way-to-install-tensorflow-on-apple-m1-in-2022

    [39]Get started with tensorflow-metal: https://developer.apple.com/metal/tensorflow-plugin/

    [40]installed but it says ModuleNotFound?: https://github.com/d8ahazard/sd_smartprocess/issues/29

  • 莫奈《干草堆》与梵高《向日葵》,环保与AI绘画

    刚看一新闻环保主义者又把在英国国家美术馆的莫奈的《干草堆》给泼了土豆泥,前两个星期他们已经往梵高的《向日葵》上泼过番茄汤。这样的新闻一出来,广大艺术爱好者痛心疾首,恨不得以身护画。说实话,这些环保主义者还算有良心的,他们选的画尽管是梵高的、莫奈的,但是莫奈此生怕画了至少五十张《干草堆》,不仅欧洲各大美术馆,当年莫奈为了赚钱,卖到美国各大美术馆的都特别多。梵高的《向日葵》也是如此,尽管这位不是为了换钱,但《向日葵》不是一件孤品。

    也就是说,他们选了名家的批量生产的作品进行破坏,为了产生热议,但又不至于真的毁了仅存的艺术。艺术与人类的未来/人命哪个更重要,这个已经被各大辩论节目讨论了个遍。说实话,艺术也是分档次的,即便都放在顶级博物馆里,《蒙娜丽莎》的价值就的确比《干草堆》高得多。前阵子,AI绘画的消息一出来,搞得人心不稳,仿佛人类的高级智慧、高级情感将失去其特殊性。

    这么说吧,AI绘画在未来充其量能达到的最高水平可能也仅止于莫奈的《干草堆》这种,距离《向日葵》有一定的距离,不可能抵达《蒙娜丽莎》。《干草堆》可以分析,可以总结,什么色彩、什么浓度、什么形状,《向日葵》也可以分析,甚至毕加索的某些一般现代作品也可以总结,即产生数据,海量数据下,AI给你弄出这些作品有什么难的。但《蒙娜丽莎》可分析吗?她的笑到底是咋回事?这笑是一种纯粹的偶然。偶然是难以被学习的。

    珍重人类的某些纯粹的偶然。