第 16 屆 iThome 鐵人賽 (2023)
{%hackmd BJrTq20hE %}
由此可知,雖然Stable Diffusion可以創造出美妙的畫作,但每次施展的咒語,產出的都是不同的圖,不可控的因素過多也導致了AI圖像很容易辨認,像是手部的不精細拉,或是眼睛的錯位,這些都是些微差錯就能明顯判斷出的錯誤,由此我們得要控制這個不受控的演算法。
ControNet 是 Stable Diffusion 下的一款插件,可以幫助創作者來控制圖像中人物的姿勢和表情。目前 ControlNet 1.1 有款模型,40餘款預處理器。ControlNet 功能是在幫助創作者根據自己的思路添加額外的控制條件,引導 AI 生成圖像,快速生成高品質的圖像。所以 ControlNet 常用於繪畫、修圖、影視特效等領域。
如果想要精準控制生成圖像的身體姿勢、表情、手勢,或是要轉換圖片的風格,可以使用 ControlNet 來做,ControlNet 是一款位於Stable Diffusion WebUI底下的繪圖插件。其主要功能是調整圖片中的人物姿勢或轉換風格,並能生成新的圖片。今天我們就來教大家認識ControlNet所有的模型。
之後的章節會以接下來的十種Controlnet 功能做講解 分別是
· Canny – 擷取圖片中的邊緣線做為參考,以生成圖片
· mlsd – 擷取圖片中明顯的直線做為參考,以生成圖片
· hed – 擷取圖片中的特徵做為參考,以生成圖片
· Scribbles – 擷取使用者提供的線條做為參考,以生成圖片
· openpose – 擷取圖片中的人物骨架做為參考,以生成圖片
· seg – 將圖片化為大略的色塊作為參考,以生成圖片
· depth & normal – 擷取圖片中的景深做為參考,以生成圖片
https://www.incgmedia.com/new-release/stable-diffusion-addon-controlnet
https://github.com/lllyasviel/ControlNet
https://www.youtube.com/watch?v=WrQrnnB5QDo&ab_channel=%E6%9D%B0%E5%85%8B%E8%89%BE%E7%B1%B3%E7%AB%8B