[Хотите освоить генерацию арта всего за два дня?

Пройдите онлайн интенсив по Stable Diffusion от создателей Нейробазы. Сэкономьте несколько недель времени и узнайте все секреты профессионалов. Посмотрите программу и запишитесь прямо сейчас!](https://salebot.site/neuroweb_1?utmus=base)

Если ControlNеt у вас еще нет, то в автоматике идем в Extension-Available жмем Load from. Ищем ControlNet, жмем InstallСкачиваем модели. И кидаем по пути ваша_папка_с_автоматиком\\extensions\\sd-webui-controlnet\\models. Всё. Вы готовы. Можем начинать.

Результат не всегда предсказуем, но от того крайне интересный.

А теперь скачаем новинку. Перейдите по ссылке и скачайте t2iadapter_style_sd14v1.pth. Помещаем туда же куда и все модели контролнета.

Не забудьте обновить сам контролнет, если давно этого не делали. На вкладке Extension.

Переходим img2txt. Сгенерируйте картинку на свой вкус, чтобы посмотреть, как она выглядит без новинки.

У меня будет вот такая.

А теперь активируем контролнет. Препроцессор установите clip_vision, а модель t2iadapter_style_sd14v1.

Мои настройки (обратите внимание на Weight):

Из за вот этой картины Ван Гога, я некоторое время не мог понять как это работает, но и она же все же дала понять как. Я прогнал один промпт через десятки фотографий.

Часть образцов:

А теперь что получилось, а после расскажу как я понимаю способ его работы:

Обратите внимание как переносится стиль. Это не простой перенос цвета. Например от мужика переехали усы. А от картины "Звездная ночь" только небо и немного город. Тут я и догнал что это как мини обучение. Он понимает что это именно небо и поэтому менял мне небо. Он нашел на фотографии которая имела совсем другие пропорции усы и прилепил похожие. И тд. и тп. Что как я считаю довольно круто.

Промпт: