в догонку - сегодня 123RF закрыл приемку работ созданных с помощью нейросети. В ближейшее время остальные подтянутся. Айс уже месяц назад закрыл.
Дальше что?
в догонку - сегодня 123RF закрыл приемку работ созданных с помощью нейросети. В ближейшее время остальные подтянутся. Айс уже месяц назад закрыл.
Дальше что?
Некоторые клиенты вместо стоков будут покупать подписку на MJ или SD.
Кстати, да. Рано или поздно художники, дизайнеры, векторщики и конечно же стокеры станут не нужны
Рано или поздно и другие профессии будут не нужны, продавцы, водители, программисты, врачи ит. Вопрос только как скоро это произойдет. Люди как биологический вид тоже будут не нужны, как только машины достигнут определенного уровня развитие и научатся сами себе воспроизводить
Вот про это можно подробнее? С шарпером и апскейлером понятно. Но что значит 50 раз прогнать через ту же нейросеть? Да, на основании созданной картинки сеть делает еще 4. Потом еще 4 и так далее. Про это вы имеете ввиду?
Нет, это было сделано в stable-diffusion на моём компе бесплатно, там можно давать картинку пример и указывать нейронке насколько ей следовать регулируя Denoising strength. Чем ниже число этого шума (читать как размытия оригинальной картинки) тем ближе к оригинальной картинке будет ваша, но с некоторыми изменениями.
То же самое можно проделать и мидджорней, указывая вес картинки командой
--iw
Ну я пока в мидджорней не могу столь точно варьировать результаты, потому часто делаю черновик в миде если он понимает, что я хочу и потом перекидываю в стаблу. Иногда стабла понимает меня быстрее.
Но зачастую я не могу пояснить ни одной нейросети что я хочу. Вот например нужно было нарисовать мамау крокодила с крокодилёнышем в пасти. Чтоб их те нейронки порвало... они блин даже крокодила не смогли нарисовать. Ну или я не знаю как правильно ключи задать. Пришлось в трёхмерке накидать что нужно, и потом уже скормить нейронкам для доработки. Вот тогда понимают, что это крокодил и что он мультяшный, и что унего текстура на животике и что у него дволь спины гребень двойной.
Хотя иногда смотришь как народ в миде с одной команды такие офигенные картинки получает и ощущаешь себя непонятно кем. Потому потихоньку коллекционирую команды-описания с удачными работами чтоб получить и себе впоследствии похожее просто чуть модифицировав описание.
30 баксов в миде хватает за глаза. Потому что там есть режим релакса, типа бесплатный рендер в промежутках между платными. Ну чуть медленнее, но как бы если работаешь над проектом то всегда можно переключиться и что-то ещё поделать. Но в целом даже в активном режиме даётся 15 часов машинного времени, это тысячи на полторы картинок как минимум.
Последний раз редактировалось Merzavka, 19.10.2022 в 17:56.
То, что искусственный интеллект научился рисовать - это ещё ничего. Подумайте, что будет, когда его не примут в Венскую академию художеств.
(c) Из интернетов
То же самое можно проделать и мидджорней, указывая вес картинки командой
--iw
Подождите. Я что-то не понял - вы скормили мидджорней исходную картинку?
Ведь параметр --iw это регуляция веса (--iw x, где х это число) позволяет усилить влияние на конечное изображение референса.
То есть была изначально фотография девушки, а далее нейронка создала то что вы просили?
Цитата:
Хотя иногда смотришь как народ в миде с одной команды такие офигенные картинки получает и ощущаешь себя непонятно кем. Потому потихоньку коллекционирую команды-описания с удачными работами чтоб получить и себе впоследствии похожее просто чуть модифицировав описание.
Да. Меня тоже удивляет, что у многих после простеньких запросов получаются офигенные картины. Команды я тоже сохраняю, но если их применить получаешь нечто другое.
Цитата:
30 баксов в миде хватает за глаза. Потому что там есть режим релакса, типа бесплатный рендер в промежутках между платными. Ну чуть медленнее, но как бы если работаешь над проектом то всегда можно переключиться и что-то ещё поделать. Но в целом даже в активном режиме даётся 15 часов машинного времени, это тысячи на полторы картинок как минимум.
Про релакс читал. Жаль что в пробной версии этот параметр не работает. И очень жаль что невозможно оплатить такую небольшую сумму. Я вам завидую!!!
Merzavka
То есть была изначально фотография девушки, а далее нейронка создала то что вы просили?
Угу, хотя в миде довольно большой разброс, много раз реролить нужно чтоб получить что-то близкое к исходной картинке. Плюс некоторые используют три ссылки в одном запросе.
В стабле с этим проще.
Ну и опять таки у меня в моей пробе в стабле не было никакой фотографии девушки, нейронка сама сгенерила первый блин комом а потом его допиливала до вида девушки. Разок мне пришлось поднять грудь выше, поскольку стабла иногда не могла понять что это грудь (ну не любит она обвисшие сиськи, её учили на фотках фотомоделей , и пару раз пришлось склеить два рерола в один, в одном цветы идеально прикрыли соски словно так и было задуманно, а во втором оно понимало что у человека бывает талия и всё что ниже (но это была редкость). А второй раз уже не помню что склеивалось с чем. Дальнейшие реролы почти не трогали склеенного и лишь немного меняли цветы или глубину резкости и упорно подбирали лицо. Где-то на десятом рероле мне приглянулась пара лиц и в конечном итоге было выбрано то что есть. В финале мне понравилась идея глубины резкости, и пришлось её довести до ума вручную. Стабла плоховато дружит с глубиной резкости, в этом вопросе мид делает вообще идеальную картинку.
Самый бич и мида и стаблы это кисти рук, ступни и пальцы. Меня в 90% случаев выручают только руки в нужных позах из daz3D. Причём с животными проблем нет, а вот у людей конечности в большинстве случаев отрублены или покалечены. После приклеивания дазовских рук и ног дальше нейронка уже старается держаться и не портить их, хоть и с трудом.
И вот шаттер что-то там певший про авторские права, скинул всю базу изображений закрытой конторе которая попилит бабло. А нам поулыбаются и типа пару копеек отстегнут. Письмо читали новенькое?
В духе компенсации нашему сообществу участников мы рады объявить о дополнительной форме заработка для наших участников. Учитывая коллективный характер генеративного контента, мы разработали модель компенсации доли доходов, согласно которой участники, чей контент был задействован в обучении модели, будут получать долю доходов от наборов данных и загрузок ВСЕГО контента, созданного ИИ, созданного на нашей платформе. Мы рассматриваем генеративность как захватывающую новую возможность — возможность, которой мы стремимся поделиться с нашим сообществом участников.
Если бы они ту обученную модель выложили в открытый доступ я только за. Но НЕТ! Идеи стабильной диффузии не так просто приживаются в обществе корпораций.