Проект направлен на обучение генеративной модели Stable Diffusion для воспроизведения стилистики аниме-пейзажей, вдохновленных визуальной эстетикой японской анимации. Основной акцент делается на передаче атмосферы открытых природных пространств: полей, холмов, неба и облаков.
Для обучения используется небольшой датасет квадратных изображений (1:1), содержащий типовые сцены с характерными признаками: мягкое освещение, насыщенные цвета, воздушная перспектива и упрощённая детализация объектов.
После обучения модель используется для генерации новой серии изображений, которые демонстрируют, насколько хорошо удалось воспроизвести визуальный стиль.
Ниже приведены примеры референсов, которые я брал на обучение модели.
Что получилось:
Анализ результатов:
В результате обучения модель научилась воспроизводить ключевые визуальные характеристики аниме-пейзажей. Среди них:
— мягкое освещение и отсутствие резких теней — насыщенные, но гармоничные цвета — акцент на небе и облаках как композиционном центре — использование воздушной перспективы
Сгенерированные изображения демонстрируют вариативность сцен: изменяется расположение объектов, плотность растительности, освещение и глубина пространства.
При этом стиль остается узнаваемым, что говорит о том, что модель успешно усвоила визуальные особенности датасета.
Использование генеративных моделей:
В рамках проекта использовались генеративные нейросети для формирования датасета и написания вспомогательных текстов (ChatGPT). Основная модель (Stable Diffusion) была обучена отдельно на выборке изображений.




