Пройдите онлайн интенсив по Stable Diffusion от создателей Нейробазы. Сэкономьте несколько недель времени и узнайте все секреты профессионалов. Посмотрите программу и запишитесь прямо сейчас!](https://salebot.site/neuroweb_1?utmus=base)
Если ControlNеt у вас еще нет, то в автоматике идем в Extension-Available жмем Load from. Ищем ControlNet, жмем Install. Скачиваем модели. И кидаем по пути ваша_папка_с_автоматиком\\extensions\\sd-webui-controlnet\\models
. Всё. Вы готовы. Можем начинать.
А теперь скачаем новинку. Перейдите по ссылке и скачайте t2iadapter_style_sd14v1.pth. Помещаем туда же куда и все модели контролнета.
Не забудьте обновить сам контролнет, если давно этого не делали. На вкладке Extension.
Переходим img2txt. Сгенерируйте картинку на свой вкус, чтобы посмотреть, как она выглядит без новинки.
У меня будет вот такая.
А теперь активируем контролнет. Препроцессор установите clip_vision, а модель t2iadapter_style_sd14v1.
Мои настройки (обратите внимание на Weight):
Из за вот этой картины Ван Гога, я некоторое время не мог понять как это работает, но и она же все же дала понять как. Я прогнал один промпт через десятки фотографий.
Часть образцов:
А теперь что получилось, а после расскажу как я понимаю способ его работы:
Обратите внимание как переносится стиль. Это не простой перенос цвета. Например от мужика переехали усы. А от картины "Звездная ночь" только небо и немного город. Тут я и догнал что это как мини обучение. Он понимает что это именно небо и поэтому менял мне небо. Он нашел на фотографии которая имела совсем другие пропорции усы и прилепил похожие. И тд. и тп. Что как я считаю довольно круто.
Промпт: