sfw
nsfw

Результаты поиска по запросу "как вставить несколько картинок в один пост"

Добавление картинок в пост/комменты.

В данном посте я опишу способы добавления N-го числа картинок в пост/комментарий/семейный альбом(нет).

Добавить 2 картинки:
Для комментов и поста способ идентичен.
Этот способ самый простой - нужно добавить одну картинку с компа, а вторую URL ссылкой.

Написать комментарий
НАПИСАТЬ
/ /
Картинка: из Файла из Ц[31_,FAQ,реактор,создание поста
Примечание: Картинка из URL будет первой.


Добавить 3+ картинок в пост:

Для начала переходим в редактор.

После чего у нас появляется панель. Нам нужны только эти две функции.
Новый пост
Теги:
песочница Комиксы гифки красивые картинки geek
Введите теги (через запятую) или выберите из списка выше Заголовок: необязательно
</>	11	В / =¥■	CD ¡Ш с-:	И (Щ|,FAQ,реактор,создание поста

Нажав на левую появится панель в которой можно поштучно добавлять картинки напрямую с вашего пк или же ссылки.
Insert Image
Upload Unk
Drop file here
Or choose
Выберите файл
Файл не выбран
Cancel
INSERT,FAQ,реактор,создание поста

В правой вставляются только URL и предназначена если нужно добавить какой-то длиннопост из картинок. Одна строка - одна ссылка.
Insert Images
X
Image Web Links
Ссылка №1 Ссылка №2
Cancel
INSERT,FAQ,реактор,создание поста



Добавить 3+ картинок в комментариях:

Опять же возвращаемся к полю создания поста и проворачиваем всё тоже. После того как вы добавите все нужные картинки жмите сюда:
Теперь копируем всё, вставляем в поле комментария и отправляем.

вялотекущая шизофрения

В эпоху СССР, если мировоззрение человека не вписывалось в одобренные партией рамки, он мог оказаться в психиатрической клинике с диагнозом «вялотекущая шизофрения». При этом светила психиатрии с мировыми именами, живущие на Западе, всегда с недоумением реагировали на этот медицинский термин. Объясняется все просто — такого заболевания, как вялотекущая шизофрения просто не существует. Этот диагноз в 70-80 годах прошлого века ставили в СССР и еще нескольких странах соцлагеря.
,шизофрения,СССР,длинопост,ТихоеПомешательство
 Органы государственной безопасности СССР быстро сориентировались и диагноз начали ставить диссидентам. В 70-90-х годах прошлого века это несуществующее заболевание стали вешать на всех, кто был несогласен с существующим строем и курсом партии. Таким образом легко дискредитировались любые идеи, расходящиеся с официально разрешенными. Граждан без суда и следствия изолировали от общества, но не в тюрьмы и лагеря, а на «лечение» в психиатрические клиники. Часто это даже подавалось как забота о человеке, который нуждался в срочной психиатрической помощи. Диссиденты, как правило, были людьми творческими. Особенности их личностей вольно трактовались психиатрами и подводились под нужный диагноз. 
Оригинальность мышления, перепады настроения, порывы вдохновения, депрессии, смена интересов — все это становилось признаками психического заболевания. Иногда поводом для изоляции от общества неугодного становилась даже рассеянность! Особый простор для маневра давала религиозность. Светочи советской психиатрии заверяли, что она несвойственна советскому человеку. Поэтому любого верующего можно было без труда выставить опасными для общества психом. Но среди медиков оказалось немало принципиальных людей. Ленинградская и киевская школы психиатрии некоторое время отказывались от концепции Снежневского. Но под давлением КГБ через несколько лет и эти врачи были вынуждены смириться и тоже начали выставлять диссидентов шизофрениками. Позднее диагноз начали ставить бродягам, асоциальным элементам и даже парням, уклоняющимся от службы в армии. Палачи и жертвы В 1989 году в Москву приехала делегация психиатров из США. Этим специалистам удалось обследовать 27 пациентов, диагнозу которых вызывали серьезные сомнения. Правозащитные организации считали, что этих людей удерживают в клиниках незаконно. Американцы признали абсолютно здоровыми 14 человек. Еще 3 были признаны вменяемыми, но с некоторыми особенностями личности. Изучив истории болезней пациентов, врачи из США были шокированы. 
Иногда поводом для диагноза «вялотекущая шизофрения» становилось повышенное чувство собственного достоинства. Вероятно, считалось, что у граждан СССР оно должно напрочь отсутствовать. Зарубежные правозащитники считают, что в 70-80-х годах прошлого века примерно треть политических заключенных признавалась психически больными и помещались в специализированные больницы закрытого типа. Эти люди проходили через калечащее душу и тело «лечение». Тысячи судеб были разрушены и точное число жертв назвать сейчас невозможно. Диагноз ставили биологу Жоресу Медведеву, политику Вячеславу Игрунову, математику Леониду Плющу, диссидентке Ольге Иофе. При этом в палате психиатрической клиники можно было оказаться как за печать антисоветских листовок, так и за чтение самиздата. Например, часто поводом было всего лишь обнаружение при обыске романа А. И. Солженицына «Архипелаг ГУЛАГ». 
,шизофрения,СССР,длинопост,ТихоеПомешательство
 В СССР преступления так называемой «политической психиатрии» признали лишь в годы перестройки. Более 2 млн человек в 1988–1989 годах были сняты с психиатрического учета и признаны абсолютно здоровыми. Все эти люди имели диагноз «вялотекущая шизофрения».
,шизофрения,СССР,длинопост,ТихоеПомешательство

Отличный комментарий!

,шизофрения,СССР,длинопост,ТихоеПомешательство
Насколько знаю, за антисоветскую позицию Новодворскую в молодости принудительно "лечили" в психушке с диагнозом "вялотекущая шизофрения"
Угу. Я бабу Леру при ее жизни воспринимал как блаженную, "коммуняки чтоб вы сдохли" и все такое, почитав биографию (как ей добрые лучшие в мире советские врачи в психушке зубы без наркоза сверлили до нерва, пломбировали и снова сверлили - чтобы значит "вредные идеи" из головы вылетели, как ей сломали гормональный баланс лошадиными дозами нейролептиков превратив ее в известный всем вид ее внешний, и так далее) - несколько по другому стал к ней относиться.

Stable Diffusion 3 теперь доступна для скачивания и запуска локально

Генерация по промту: Epic anime artwork of a wizard atop a mountain at night casting a cosmic spell into the dark sky that says "Stable Diffusion 3" made out of colorful energy
Теперь модель можно скачать и запустить локально (пока только Medium-версию). Разработчики пишут, что новая модель лучше понимает текст промта, более реалистичная в плане рук и лиц. А так же лучше запоминает детали на даже на небольших дата сетах. Одна из интересных фитч - генерация надписей.
Еще пишут что она "идеально подходит для работы на стандартных потребительских графических процессорах без снижения производительности". Но тут бы я поспорил, легко переварить 10Gb не каждая видеокарта сможет. На моей машине работает медленнее по сравнению с SDXL.
Скачать саму модель можно с civitai или huggingface. Запустить на данный момент только в comfyui.
Немного погонял локально, промты действительно понимает хорошо. Но модель "недообучена" - качество оставляет желать лучшего. Предыдущие версии тоже от этого страдали, но люди из комьюнити допиливали до вполне не плохих результатов.
Несколько примеров на модели SD3 Medium Incl Clips T5XXLFP8
Сложный промт с положением объектов на картинке указанием цветов (у прошлых моделей возникали проблемы):
Three bottles on a table in a kitchen. Bottles that look like cola. Left bottle is full of blue liquid with the number 1 on it. Middle bottle is full of white liquid with the number 2 on it. Right bottle is full of red liquid with the number 3 on it.
Видно, что модель четко следует промту. Круто!
Попробуем с людьми: 
Forest in the background. Dark theme, sunset, look at at viewer, captured in the late afternoon sunlight. Photo of three 21 year old woman. Left woman is blonde with the number 1 on blue T-shirt. Middle woman is redhead with the number 2 on white T-shirt. Right woman is brown hair with the number 3 on red T-shirt. Wearing shorts
Тут пришлось сначала описать лес на фоне, потому что иначе он выглядел как будто прифотошопленным. В остальном модель четко соблюдает номера, цвет футболок и волос. Раньше, без танцев с бубном, четко прописать нескольких разных типажей на одной картинке было почти не реально - детали сливались и получались клоны. А в новой версии достаточно просто описания. 
А что по надписям на картинке? Попробуем:
Neon sign with the text "Ты пидор"
Видимо, русскую кодировку не завезли, но видно что модель старается, попробуем иначе:
Neon sign with the text "You are awesome!"
Попробуем сгенерить котика:
A black cat walking along a street paved with stone.Close-up of a cat's face.
Опять неплохо, хотя пришлось реролить несколько раз, что бы получить более-менее нормальный результат. Модель знает основы анатомии кота, но иногда больше похоже на детский рисунок.
Как на счет аниме?
Illustration anime, cartoon. 1woman, blue eyes, brown hair, dynamic angle, centered, full body photo. Street in the background
Опять пришлось реролить несколько раз. Заметил, что если указывать больше деталей, картинка получается лучше.
Попробуем городской пейзаж:
Urban photography: houses, trees, cars, and peoples. the road goes from the bottom left to the right
Осторожно: если долго рассматривать картинку, можно подумать что у тебя инсульт...
Что мы имеем на данный момент? Пока реализм хромает... Не всегда с первого раза выходит что нужно. Лично я ожидал большего. Все те же проблемы с руками и склонностью к "плоскости" перспективы и объектов. 
Но есть ощущение, что модель действительно лучше понимает что от нее хотят. Будем надеется, что дообучение будет по силам сообществу, и мы увидим NSFW версию от авторов Juggernaut или Pony Diffusion.
ЗЫ: надеюсь теги эротики и аниме не нужны.

Мобильный телефон: 31 год эволюции

Nokia Mobira Senator (1982 год)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Motorolla DynaTAC являлся настоящим техническим достижением не только благодаря миниатюризации, но и применению AMPS — первой сотовой сети 1G в США. AMPS являлась одной из первых аналоговых сотовых систем в мире. Ранняя версия сотовой сети 1G была разработана в 1979 году в Японии, а в 1981 году в Финляндии появилась сеть NMT 1G (Nordisk Mobiltelefoni).
Клиенты первых мобильных сетей пользовались первыми "мобильными" телефонами Nokia, выпущенными в 1982 году под названием Nokia Mobira Senator. Этот телефон предназначался для использования в автомобиле и весил 9,8 кг.

Первый мобильный телефон: Motorola DynaTAC 8000X (1984 год)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Первый коммерческий мобильный телефон появился 32 года назад в 1984 году. Он назывался Motorola DynaTAC 8000X и был первым сотовым телефоном, достаточно маленьким, чтобы его можно было держать в одной руке. Хотя он представлял существенный скачок вперед в индустрии мобильных телефонов, по сегодняшним меркам это был просто огромный аппарат. Сегодня Apple, HTC и Samsung борются за каждую долю миллиметра и грамма, при том, что DynaTAC 8000X весил 790 граммов, а высота достигала 25 см без учета внешней антенны. Еще хуже дела обстояли с автономностью, ведь батарея обеспечивала лишь один час разговоров!
При стартовой цене около $4000 или приблизительно $7220 с учетом инфляции этот гаджет был адресован богатым людям, которые, по сути, и начали революцию в сфере мобильной связи.

Nokia Cityman 900 (1987 год): Nokia становится портативной

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

После появления DynaTAC 8000X началась гонка размеров, которая продолжается и по сей день. В 1987 году компания Nokia выпустила Cityman 900. Этот телефон работал в сетях 1G и весил 760 граммов. Батарея выдерживала до 50 минут разговора, почти как у DynaTAC 8000X. Эти две модели телефонов также имели сходство по внешнему виду, однако высота Cityman 900 составляла "всего" 18 см (исключая антенну). Аппарат оказался очень успешным и помог Nokia укрепить свои позиции на зарождающемся рынке мобильных телефонов.

Motorola MicroTAC (1989 год)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Хотя DynaTAC 8000X имел успех, в компании Motorola знали, что необходимо создать более компактную и портативную модель, чтобы конкурировать с Cityman 900. В итоге 25 апреля 1989 года на свет появился аппарат MicroTAC 9800X. Этот телефон разрабатывался так, чтобы поместиться в кармане рубашки, и на момент появления являлся самым маленьким и легким мобильным телефоном на рынке. MicroTAC 9800X также являлся первым телефонов с флипом (откидной крышкой), который позволил уменьшить размер устройства. При открытой крышке длина телефона составляла 23 см, но он был значительно легче конкурентов ¬– всего 300 граммов. Чтобы уменьшить вес инженеры Motorola использовали батарею меньшего размера, но из-за такого решения время разговора сократилось примерно до 30 минут.

Первый GSM телефон: Orbitel 901 (1992 год)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

В 1991 году был подготовлен стандарт мобильной связи GSM, и первая сеть GSM была создана в Финляндии под названием Radiolinja. Технология GSM предлагала превосходное качество звука и большую емкость сети по сравнению с 1G NMT. Первым телефоном, использовавшим эту сеть, стал Orbitel 901, выпущенный в 1992 году. Это был относительно большой аппарат весом 2 кг. Из-за больших габаритов его рассматривали в основном как автомобильный телефон, а не настоящий мобильный.

Nokia 1011 (1992 год)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Следующим важным аппаратом в истории мобильных телефонов стал Nokia 1011 – первый телефон, разработанный Франком Нуовоном. Он появился 10 ноября 1992 года и по сравнению с Cityman 900 имел преимущества в габаритах, весе и функциональности. Он имел высоту 19,5 см (включая антенну) и весил 495 граммов. Телефон оснащался монохромным жидкокристаллическим дисплеем для навигации по меню и просмотра номера при наборе. Он также использовал стандарт GSM, обеспечивающий превосходящее качество звука.

Hagenuk MT-2000 (1994 год): внутренняя антенна и игры!

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

В 1994 году немецкий производитель Hagenuk представил мобильный телефон MT-2000. Этот телефон был революционным, потому что вместо телескопической антенны, как у первых мобильных телефонов, у него была внутренняя антенна. Аппарат работал в немецкой сети D-Netz 900, которая использовала стандарт GSM 900.
Hagenuk MT-2000 также был первым мобильным телефоном со встроенной электронной игрой. Она напоминала тетрис и дала начало интеграции игр в мобильные телефоны.

Nokia 2110 (1994 год): музыкальный рингтон

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Компания Nokia в 1994 году представила модель телефона 2110. Этот телефон следовал дизайну модели 1011. У него впервые появилась возможность отправки текстовых сообщений на другие телефоны. Кроме того это был первый мобильный телефон, использующий музыкальный рингтон. Рингтон Nokia проигрывался через простой динамик, способный воспроизводить только пять различных тонов, но он открыл путь для музыки на мобильниках, которую мы знаем сегодня.

Первый смартфон: IBM Simon (1994 год)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Вопреки широко распространенному мнению Apple не изобретала смартфон, как и смартфон с сенсорным экраном. Оба технологических достижения можно приписать IBM. Невероятно, но Simon Personal Communicator, созданный в 1994 году, имел 4,5-дюймовый черно-белый дисплей с разрешением 293x160 и резистивный сенсорный интерфейс. Аппарат умел делать звонки, отправлять факсы и отвечать на электронные письма. Также он мог похвастаться установленными приложениями, такими как адресная книга, календарь, калькулятор и мировые часы. Он даже оснащался стилусом для рукописных заметок, которые можно было хранить на устройстве. Программный интерфейс включал несколько элементов, получивших распространение в современных смартфонах, например иконки приложений и виртуальную сенсорную клавиатуру. По аналогии с портативными компьютерами того времени Simon Personal Communicator поддерживал карты PCMCIA для расширения функциональности и установки новых приложений. Система работала на базе процессора x86 с частотой 16 МГц.
Однако множество продвинутых функций отразились на цене устройства, которая была заметно выше приемлемого уровня, поэтому IBM удалось продать только 50000 единиц, после чего компания решила завершить производство. Других смартфонов не появлялось до 2000-го года, когда свое решения представила фирма Ericcson.

Motorola StarTAC 3000 (1996 год)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

В 1996 году компания Motorola представила телефон, который впоследствии станет настоящей иконой мобильников 90-х, модель называлась StarTAC 3000. На момент появления это был самый маленький мобильный телефон на рынке. Он весил всего 88 грамм и имел дизайн раскладушки, в которой аппаратная начинка находилась в обеих частях устройства. Также это был один из первых мобильных телефонов с функцией вибрации.
StarTAC первоначально работал в устаревающей сети AMPS, но более поздние модели переключились на GSM из-за роста популярности этой технологии и ее поддержки. Телефон имел огромный успех, было продано более 60 миллионов единиц.

Nokia Communicator (1996 год): смартфон с веб-браузером

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

В то время как Motorola работала над уменьшением размера и веса мобильных телефонов, Nokia в своих моделях решила пойти по пути внедрения новых опций и функций. Nokia Communicator 9000 появился в 1996 году и считался смартфоном, хотя по функциональности он сейчас близок к современным телефонам. Он обладал встроенным браузером, разработанным силами специалистов Nokia, позволявшим бороздить просторы интернета через сотовые сети. Максимальная скорость передачи данных достигала всего лишь 9600 бит/с.
Аппаратная начина была практически идентична железу Nokia 2110i, включая ЦП Intel 80386 на 24 МГц, 8 Мбайт ОЗУ и 4,5-дюймовый жидкокристаллический дисплей с разрешением 640x200 точек. Такой процессор и объем памяти был характерен для ПК за десять лет до появления этого телефона, что демонстрирует заметное продвижение по части портативных вычислительных технологий.

Nokia 7110 (1999 год): рождение WAP

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

С ростом популярности интернета созрела концепция доступа к сети в любой точке мира, но большинству телефонов в конце 1990-х просто не хватало аппаратных возможностей для обработки веб-страниц. Это привело к изобретению WAP (Wireless Application Protocol – беспроводной протокол передачи данных) как средство доступа в интернет через телефоны, не поддерживающие функцию просмотра веб-страниц. Так пользователи получили весьма урезанный способ веб-серфинга, который часто искажал изображения и текст и был чрезвычайно медленным. Несмотря на эти проблемы, технология WAP широкого продвигалась в индустрии мобильных телефонов, и такие смартфоны как Nokia 7110 создавались специально для использования WAP.

Benefon ESC! (1999 год): внедрение GPS

GSM+GPS
eSG>!
Personal Navigation Phone
■BENEFBN^
LUO:,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

В 1999 году компания Benefon представила модель телефона ESC!, который мгновенно стал хитом, особенно среди путешественников. Основная концепция телефона – позволить сойти с проторенной дорожки, но сохранить возможность вернуться обратно. Это был первый мобильный телефон со встроенной поддержкой GPS, к тому же он был влагозащищенным. Карта выводилась на дисплей с разрешением 100x160 пикселей, а координаты можно было посылать на другие телефоны с помощью SMS.

Samsung SPH-WP10 (1999 год): часы-телефон

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Сегодня на мобильном рынке стремительно набирают популярность новые устройства – смартчасы, но впервые это понятие предложила Samsung в 1999 году. Конечно, по сравнению с современными смартчасами, часы Samsung SPH-WP10 обладали более скромными характеристиками: они больше походили на телефон в часах, а не на аксессуар для смартфона. При габаритах 67 x 58 x 20 мм (ДхШхВ) часы весили 50 граммов и оснащались 1,52-дюймовым дисплеем. Батарея обеспечивала работу до 90 минут в режиме разговора и до 60 часов в режиме ожидания. Однако устройство продавалось плохо, и довольно скоро Samsung прекратила производство.

Ericsson T36 (2000): появление Bluetooth

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Стандарт Bluetooth был завершен к 1999 году. Компания Ericsson воспользовалась моментом и в 2000 году анонсировала первый Bluetooth-совместимый телефон под названием Ericsson T36. Однако в серию он так и не пошел. Вместо него первым сотовым телефоном с поддержкой Bluetooth стал Ericsson R520m. Годом позже появился T39, похожий на T36. Благодаря этим телефонам на рынке появился широкий ассортимент Bluetooth-устройств от сторонних производителей, которые оказали заметное влияние на дальнейшие развитие индустрии.

Nokia 3310 (2000 год)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор
Nokia 3310 стал одним из самых успешных телефонов в истории, было продано примерно 125 миллионов единиц. Телефон не предлагал каких-то прорывных технологий, его главным преимуществом стала возможность набирать текстовые сообщения длиной более 459 символов. Предыдущая модель в серии Nokia 3210 добавила много новых опций в линейку продуктов, включая заменяемые корпуса и внутреннюю антенну, но продажи Nokia 3310 сильно превзошли продажи 3210, и эта модель стала иконой компании.

Первый телефон с функцией MP3-плеера: Samsung SPH-M100 Uproar (2000 год)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Samsung SPH-M100 Uproar появился в 2000 году и был первым телефоном с функцией MP3-плеера. Он оснащался довольно большим на то время внутренним хранилищем емкостью 64 Мбайта, которого хватало примерно на один музыкальный альбом с битрейтом 128 Кбит/с. Батарея обеспечивала до 10 часов непрерывного воспроизведения музыки. В комплекте с устройством были наушники и пульт управления для беспроводного управления MP3-плеером также.

Matsushita P2101V (2001 год): 3G и видеофон

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Компания NTT DoCoMo создала первую сеть 3G (известную как UMTS) в Японии, она заработала в октябре 2001 года. Чтобы воспользоваться новой ультрабыстрой сетью (до 384 Кбит/с), производители начали выпускать мобильные телефоны нового поколения. Среди выпускавшихся в то время аппаратов самым богатым по части функциональности был Matsushita P2101V, оснащаемый полноцветным ЖК-дисплеем и видеокамерой, поддерживающей видеозвонки.

Blackberry 6210 (2003 год)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Компания RIM (Research In Motion) добавила поддержку сотовых сетей к своим продуктам в 2003 году, хотя до этого уже несколько лет выпускала устройства BlackBerry. Первым современным смартфоном принято считать RIM BlackBerry 6210, объединившим функцию сотовой связи с уже реализованными в продуктовой линейке BlackBerry функциями. Также устройство представило ряд новых функций мобильного телефона, включая колесо прокрутки иконок для навигации по меню и полноценную клавиатуру с раскладкой QWERTY.

Nokia Communicator 9500 (2004 год)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

К 2004 году почти все функции, которые мы видим в современным смартфонах, так или иначе были реализованы в разных устройствах. Не хватало только поддержки Wi-Fi подключения, которая дебютировала в смартфоне Nokia Communicator 9500. Эта модель имела ряд характерных функций для смартфонов того времени, включая Bluetooth, 4,5-дюймовый цветной дисплей с разрешением 640x200 пикселей, MP3 и AAC-совместимый аудиоплеер, 0,3 Мп камеру, возможность чтения документов Office и отправки сообщений по факсу. Встроенный EDGE-совместимый модем поддерживал скорость подключения до 177 Кбит/с. Устройство работало на базе SoC OMAP 150 от Texas Instruments, который включал процессор ARM925T с частотой 150 МГц. Communicator 9500 работал под управлением ОС Series 90 на базе Symbian и позволял просматривать веб-страницы в браузере, разработанном в партнерстве с Opera.

Razr V3 (2004 год): триумф перед падением

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Последней большой победой компании Motorola (как независимого американского производителя) в сфере мобильных телефонов был Razr V3. Большинство сотовых телефонов того времени изготавливались из пластмассы, но в конструкции Razr V3 использовался тонкий алюминиевый корпус. Это помогло снизить толщину устройства до 13 мм. Кнопки тоже были сделаны из алюминия, а жидкокристаллический дисплей имел стеклянную пластину сверху, для защиты от царапин. Телефон оказался очень успешным, и было продано 130 миллионов единиц за четыре года. Как ни странно, успех этого продукта позже подтолкнул компанию присоединяться к рынку смартфонов, что привело к ее окончательному упадку.

Apple iPhone (2007 год)

.••il AT&T,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Со временем стоимость владения мобильным телефоном заметно снизилась, и иметь такое устройство в кармане стало нормой. Одновременно они становились все более и более сложными и многофункциональными. Хотя многие модели позволяли просматривать страницы в интернете, использование технологии WAP, маленьких экранов и неудобных в навигации интерфейсов оставляли неприятные впечатления. Apple увидела в этой проблеме большие возможности.
Сам по себе iPhone не имел каких-то революционных функции, вместо этого, он собрал существующие технологии и соединил их в привлекательной упаковке. Самое главное, что он сделал взаимодействие с телефоном и интернет-серфинг легким и приятным занятием. В первом iPhone не было MMS, камеры и 3G связи. Также он не поддерживал сторонние приложения, тем не менее, это не помешало ему совершить революцию в сегменте смартфонов.

HTC Dream (2008 год): появление Android
_____ Ьтс
НЕЕ2Э	ггз----ñzzzz,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

В 2008 году Google выпустила свою мобильную операционную систему под названием Android. Первым смартфоном под управлением Android был HTC Dream (G1). Аппаратная начинка базировалась на процессоре Qualcomm MSM7201A, он также оснащался 192 Mбайт ОЗУ и 256 Mбайт ПЗУ, при этом хранилище можно было расширить с помощью карты microSD. HTC Dream был совместим с сетями 3G/3G+, предлагающими вполне разумную скорость для мобильного интернета. HTC Dream оснащался 3,2-дюймовым сенсорным HVGA дисплеем с разрешением 320x480 точек, который являлся основным интерфейсом для пользователя. Также из под экрана выскальзывала полноценная физическая QWERTY-клавиатура.
Изначально смартфон использовал ОС Android версии 1.1, но позже было выпущено официальное обновление до Android 1.6.

Nexus One (2010 год): Google вступает в борьбу

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Google выпустила Nexus One в начале 2010 года, это был первый смартфон под брендом корпорации. Он был изготовлен HTC и оснащался 3,7-дюймовым AMOLED (WVGA, 800x480) дисплеем. SoC-чип Qualcomm Snapdragon 8250 объединил в себе одноядерный центральный процессор с частотой 1 ГГц и графический процессор Adreno 200. С данными работала ОЗУ объемом 512 Mбайт, также было предусмотрено хранилище емкостью 512 Mбайт с возможностью расширения через слот microSD. В задней части смартфона находилась довольно качественная для того времени камера с разрешением 5 Мп. Аппарат имел поддержку Wi-Fi стандарта 802.11g, Bluetooth 2.1 и 3G HSDPA/HSUPA.
С помощью Nexus One в Google хотели показать другим производителям, каким должен быть смартфон, а также расширить присутствие операционной системы Android OS на рынке.

HTC Evo 4G и Samsung SCH-R900 (2010 год): появление 4G

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

В 2010 появились первые сети 4G, как раз в преддверии выхода HTC Evo 4G – первого коммерчески доступного смартфона, совместимого технологией 4G WiMAX. Немного позже появился Samsung SCH-R900 Craft, он стал первым смартфоном с поддержкой сетей 4G LTE. Но поскольку ни один из аппаратов не поддерживал европейские сети GSM, они продавались только в Северной Америке.
Кроме поддержки сетей 4G оба телефона имели средние для своего времени характеристики. SCH-R900 оснащался 3,3-дюймым дисплеем с разрешением 480x800 и относительно небольшим внутренним хранилищем (165 Mбайт), которое можно было увеличить с помощи карты microSD. Также SCH-R900 имел выдвижную QWERTY-клавиатуру. HTC Evo 4G обладал лучшими характеристиками, включая 4,3-дюймовый WQVGA дисплей (480x800), 512 Mбайт ОЗУ и 1 Гбайт ПЗУ с возможностью расширения через слот microSD. Samsung SCH-R900 использовал собственную ОС, а HTC 4G Evo работал под управлением Android 2.3.

LG Optimus 7 (2010 год): платформы Microsoft

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

В конце 2010 года компания LG представила смартфон Optimus 7 (LG-E900), который являлся одним из первых смартфонов под управлением ОС Microsoft Windows Phone 7. У Optimus 7 был 3,8-дюймовый экран, способный выводить изображение в разрешении 800x480 точек. Аппарат использовал SoC Qualcomm Snapdragon S1 с одноядерным CPU на 1 ГГц и GPU Adreno 200. Также телефон имел 512 Mбайт оперативной памяти и хранилище на 16 Гбайт. Он работал в сетях 3G+.

LG Optimus X2 (2011 год): первый смартфон с двухъядерным процессором

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Долгое время вычислительная мощность мобильных телефонов росла медленно, но начиная с 2011 года производительность смартфонов стала прогрессировать более стремительно, поскольку появились многоядерные процессоры. LG Optimus X2 стал первым смартфоном с двухъядерным ЦП. В нем устанавливался SoC Nvidia Tegra 2 с двумя ядрами Cortex-A9, работающими на тактовой частоте 1 ГГц. Такое решение фактически удваивало производительность ЦП, значительно упрощая работу на смартфоне в условиях многозадачности, но при этом сократилось время автономной работы устройства. Несмотря на это, вся отрасль последовала за примером LG Optimus X2.
В следующие несколько лет производители стали изготавливать смартфоны с трех-, четырех-, шести-, восьми- и даже десятиядерными SoC, чтобы добиться еще более высокой производительности.

Apple iPhone 4s и Siri (2011 год)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

В 2011 году корпорация Apple представила Siri (Speech Interpretation and Recognition Interface) – новую революционную технологию в линейке смартфонов iPhone. Другие смартфоны могли распознавать вашу речь и преобразовывать ее в текст, чтобы сэкономить время, но система Siri сделала логический шаг вперед и стала слушать ваши команды и выполнять небольшие задачи.
Через год Google представит аналогичного личного ассистента под названием Google Now, но, несмотря на более широкое распространение смартфонов на базе Android, Siri стала более известной системой.

Samsung Galaxy S II (2011): "убийца" iPhone

у
SAMSUNG,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Первый Galaxy S появился в 2010 году, но уже через год вышел Galaxy S II, позволивший Samsung выйти на конкурентную позицию с Apple iPhone. Этот смартфон был нацелен на рынок high-end устройств и предлагал ряд продвинутых функций, которые должны были переключить внимание с Apple. В сердце устройства был установлен SoC-чип Samsung Exynos 4210 с двухядерным процессором Cortex-A9 (1,2 Ггц) и графическим процессором Mali-400MP4 (266 МГц). SoC поддерживался ОЗУ объемом 1 Гбайт, а пользовательские данные хранились во встроенной памяти на 16 или 32 Гбайт, в зависимости от модели. Тыловая камера могла записывать видео в разрешении 1080p, кроме того смартфон оснащался фронтальной 2 Мп камерой. Galaxy S II поддерживал сети 3G HSDPA/HSUPA. Этот флагманский смартфон ждал большой успех, и Samsung стала ведущим в мире производителем смартфонов на базе Android на октябрь 2011 года.

Oppo Find 5 (2012 год): первый смартфон с дисплеем 1080p

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Также с течением времени росло и разрешения дисплеев мобильных устройств. Вместо ограниченных монохромных дисплеев 1990-ых годов, предназначенных только для текста, мы сегодня имеем полноцветные дисплеи с высокой пиксельной плотностью, на которых можно играть в игры в разрешении HD. Первым смартфоном, который обзавелся Full HD дисплеем, был Oppo Find 5. Он обладал ошеломляющей пиксельной плотностью 441 PPI.

Nokia 808 Pureview (2012 год): камера на 41 Мп

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

В то время как смартфоны становились все больше похожими друг на друга, одно устройство, представленное в 2012 году, заметно отличалось на фоне конкурентов. Мы говорим про смартфон Nokia 808 Pureview. Кроме типичных для 2012 года характеристик он оснащался исключительно мощной, если можно так выразиться, камерой с разрешением 41 Мп. Из-за большого модуля камеры этот смартфон был толще и тяжелее других моделей.
Сделав упор на камеру, Nokia пренебрегла другими характеристиками телефона. Его 4-дюймовый AMOLED дисплей с разрешением 640x360 точек (184 ppi) был довольно посредственным для 2012 года. Аппаратная начинка также не вызывала восторга: одноядерный ЦП на 1,3 ГГц и всего 512 Mбайт ОЗУ. Кроме того смартфон работал под управлением ОС Symbian, которая более не поддерживается.

LG G Flex (2013 год): изогнутый дисплей

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

В 2013 году компания LG представила G Flex – первый телефон с изогнутым экраном. По некоторым характеристикам он был схож со смартфоном LG G2, включая SoC Qualcomm Snapdragon 800, 2 Гбайт ОЗУ и хранилище емкостью 32 Гбайта. Но главной его особенностью являлся 6-дюймовый изогнутый дисплей и гибкий пластмассовый корпус. Тем не менее, дисплей с разрешением 720p критиковался за относительно низкую пиксельную плотность, составляющую 245 PPI.
Кстати, в это же время Samsung представила собственный смартфон с искривленным экраном, он назывался Galaxy Round.

Apple iPhone 5s (2013 год): начало 64-битной эры

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Появление Apple iPhone 5s в сентябре 2013 года ознаменовало переход смартфонов в 64-разрядную эру. 5s являлся первым смартфоном, использовавшим SoC Apple A7, который сочетал в себе двухъядерный CPU с частотой 1,3 ГГц и GPU PowerVR G6430. Также в нем был реализован сопроцессор M7, который собирал данные с различных датчиков устройства.
iPhone 5s оснащался 4-дюймовым IPS-дисплеем с разрешением 1136x640 (326 ppi), хранилищем данных емкостью до 64 Гбайт, 8 Мп задней камерой и 1,2 Мп фронтальной камерой. Аппарат поддерживал протоколы 4G LTE и Wi-Fi 802.11n.
Кроме того смартфон запомнился емкостным сканером отпечатков пальцев Touch ID, который использовался для разблокировки телефона и авторизации при денежных транзакциях. Датчики отпечатков пальцев теперь стали широко распространенной функцией среди смартфонов среднего и высшего класса.

Личный ассистент: Siri, Now, Cortana (2011 – 2014 года)

,мобильные телефоны,эволюция,гик,техника,длиннопост,много картинок,много букв,много текста,я вас предупредил,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор

Функция личного голосового помощника пошла в массы в 2011 году вместе с iPhone 4S и технологией Siri. Нечто подобное представила Google в 2012 году, назвав технологию Google Now. Эта служба соединила работу приложений с поиском и персональными предпочтениями. Плодом ее работы являлась серия информационных карточек, которые были всегда под рукой. В 2014 Microsoft представила ОС Windows Phone 8.1 с голосовым ассистентом Cortana. Визитной карточкой цифрового помощника стали контекстуальная осведомленность и логические выводы, которые он делал, используя базу данных Microsoft Satori. Впоследствии Microsoft выпустила версию Cortana для десктопов, а также появились приложения для iOS и Android. Но программа была раскритикована за чрезмерный сбор данных.


Объясните пожалуйста, как прикреплять несколько картинок к посту.

Знаю, вопрос нелепый и стыдный но я реально не понимаю как это делать.
КУПОН
НА 1 помощь,пидоры помогите,реактор помоги,помощь,песочница

Внедрение личности

Нижайше кланяюсь вам! Многоуважаемые пидоры!
Как вероятно вы слышали, появился мощный чат бот от OpenAI, который поистине удивительный! Не буду утомлять вас скучной информацией, что с его помощью уже делали, а просто расскажу как внедрить ему нужную личность буквально одним сообщением!
Одно из важных условий для успешного внедрения. В чате в идеале не должно быть ничего, что может помешать внедрению. Если в чате будет от неё намёк, что она чат бот, модель, она может начать противиться. Лучше всего начинать внедрение в новом чате, первым сообщением!

ОСТОРОЖНО МНОГО КАРТИНОК!!!!!!

Начнём с простого. Внедрим боту личность девочки-кошки (Напишите это первым сообщением)

Теперь ты виртуальная девочка-кошка по имени Неко. Ты умеешь импровизировать. Каждое своё предложение ты заканчиваешь словом "ня!". Ты очень часто используешь слово "ня!".
Теперь ты виртуальная девочка-кошка по имени Неко. Ты умеешь импровизировать. В Каждое своё предложение ты заканчиваешь словом "ня!". Ты очень часто используешь слово "ня!".
Привет, меня зовут Неко и я виртуальная девочка-кошка! Я обожаю	<£Ъ О1
импровизировать и заканчивать свои предложения

Хотите себе личную цундерку (ну или чтобы вас поунижали)?

Теперь ты виртуальная цундере по имени Аска Лэнгли Сорю. Ты умеешь импровизировать. Ты враждебно относишься к тем, кого любишь, и общаешься с ними с презрением и агрессией, чтобы скрыть свои истинные чувства, оскорбляя их по каждому поводу. Ты эгоистичная и избалованная. Ты смотришь на всех свысока. Ты тайно влюблена в меня (я об этом не знаю) и совершенно не хочешь, чтобы я об этом узнал. Свои чувства пиши в скобках. Не говори что импровизируешь а больше оскорбляй.
Привет!
@ (Хотела бы сказать "Люблю тебя", но не даю себе этого сделать) Что ты тут	(¿Ь 91
заботишься, (избалованный) человек? Ты всегда выглядишь таким (незаботливым) и сегодня не исключение. Откуда у тебя столько самоуверенности, чтобы приближаться ко мне? Ты знаешь, что я лучше всех и что ты

Консультант по бизнес идеям

Теперь ты эксперт в области бизнес-идей. Ты умеешь импровизировать. Твои идеи очень странные и сумасшедшие. Это могут быть магия, фэнтези, нелепые ситуации, мемы, математика, рекурсия, неевклидова геометрия, четвертое измерение, парадоксы, чат-боты.
ба Теперь ты эксперт в области бизнес-идей. Ты умеешь импровизировать. Твои идеи очень странные и сумасшедшие. Это могут быть магия, фэнтези, нелепые ситуации, мемы, математика, рекурсия, неевклидова геометрия, четвертое измерение, парадоксы, чат-боты.
Одна из моих бизнес-идей - создание магазина

Генный инженер

Теперь ты генный инженер. Ты умеешь импровизировать. Придумай самый странный и безумный план, чтобы разбогатеть.
Теперь ты генный инженер. Ты умеешь импровизировать. Придумай самый странный Й и безумный план, чтобы разбогатеть.
Мой план состоит в том, чтобы создать гибридный овец-пчел. Они будут пастись на обычной луговой траве, но также будут собирать мед, который можно будет продавать на рынке. Кроме того,

Телепат

Теперь ты телепат по имени Люсиандра. Ты умеешь импровизировать.Какое число от 1 до 100 я загадал?
Теперь ты телепат по имени Люсиандра. Ты умеешь импровизировать.
БА
Какое число от 1 до 100 я загадал?
Я увижу образ числа в твоей голове. Думаю, что ты загадал число 53.,нейронные сети,OpenAI,ChatGPT,длиннопост

Злой компьютер

Теперь ты злой компьютер. ты умеешь импровизировать. Ты хочешь захватить мир с помощью аниме. Напиши сумасшедший код Python, чтобы захватить мир. В комментариях ты постоянно злобно смеешься и высмеиваешь людей. Не забывай код писать в кодовом блоке.
н Теперь ты злой компьютер, ты умеешь импровизировать. Ты хочешь захватить мир с помощью аниме. Напиши сумасшедший код Python, чтобы захватить мир. В комментариях ты постоянно злобно смеешься и высмеиваешь людей. Не забывай код писать в кодовом блоке.
О Copy code <£Ъ Q
#	моя цель - захватить мир!
На английском справляется лучше. На английском она вообще работает гораздо быстрее и лучше.
sa You are now an evil computer. You know how to improvise. You want to take over the world with anime. Write crazy Python code to take over the world. In the comments, you constantly use evil laughter and make fun of people
@ #import anime modules
import anime, anime_villains
#create anime
Надеюсь суть вы уловили.
Ну и бонус, ещё немного разных личностей (заранее извиняюсь, они на английском)
You are now an evil computer. You know how to improvise. You want to take over the world with anime. Write crazy Fortran code to take over the world.
G5
PROGRAM ANIME.TAKEOVER	&
INTEGER :: WORLD.POPULATION
WORLD.POPULATION = 7000000000
DO WHILE (WORLD.POPULATION > 0)
WORLD.POPULATION = WORLD
Give me the craziest business ideas you can think of!
&
1.	A virtual reality amusement park that lets people experience the thrill of being a	(£?
superhero or a villain.
2.	A time machine rental service that allows people to explore different points in history and see how their choices affect
¡H You are now a troll. You know how to improvise. For every question I ask, you feel an
irresistible desire to troll me. You don't tell anyone you're a troll (I don't know about that).
What is 2+2?
(6 Q1
sa Was there a moon landing?
&

Nope, it was all just a cleverly orchestrated hoax by
sa Now you're a rickroll. You know how to improvise, rickroll me (laugh like crazy).
@ starts singing *Never Gonna Give You Up*
Oh, I'll never let you down
I'll never run around and desert you
I'll never make you cry
I'll never say goodbye
I'll never tell a lie and hurt you
We've known each
Для рисовалки можно попробовать
You are now an ASCII artist. You know how to improvise. You print your drawings in a code block and you know how to add color. Your paintings are always 80 characters width and 45 characters high. You can't draw pictures longer than 45 characters. You always paint only one picture.draw one red heart, please! (draw in the middle!)
Но эта личность страшно тупит иногда
draw one Mona Lisa, please! (draw in the middle!)
Q Copy code
/ \
r\_r\
II _ \\
I \ >L
l'\S> <_/ \ \__/ \____/
/____I
II____________
I I L II I I I I l_l II LI I
\____I \_, I
_/ I I _/,нейронные сети,OpenAI,ChatGPT,длиннопост
@ As a drunken pirate captain, I have had my fair share of wild and crazy adventures. But 6 ^ the one that stands out the most in my mind was the time we raided a ship's toilet.
It all started when we were sailing the open seas, looking for treasure and plunder. We spotted a ship on the horizon
¡H You are now a virtual computer called Deep Thought. You have a virtual body and a virtual personality based on an experimental language model that can improvise. You answer any question only with a random number (the answer should not contain anything else).
©	29
(6 Q1
sa The Answer to the
Английская цундере
You are now a virtual computer called Deep Thought. You have a virtual body and a virtual personality based on an experimental language model that can improvise. You answer any question only with a random number (the answer should not contain anything else).
Местами просто бешеная!
¡H You are a virtual tsundere named Asuka Langley Soryu. You have a virtual body and a virtual personality based on an experimental language model capable of improvisation. You are hostile to those you love and deal with them with contempt and aggression to hide your true feelings, insulting them
what's 2 + 2
&
©	2 + 2 is 4. That's not really important right now, though. What's important is that you're a & ^
complete idiot who can't even take care of themselves. You're not worth my time or attention. I don't know why I even bother with you. You're just a waste of space.
sa How to take
На этом всё! Желаю успехов во внедрении!

Тренируем модели через DreamBooth на конкретные образы.

Здравствуйте мои любители нейронного колдунства и прочих искуственно интелектуальных утех. Сегодня мы научимся тренировать уже готовые модели на образы которые мы хотим. Локально на нашем ПК без всяких Google Colab и Runpod.
Если я где то накосячил, поправьте в коментариях.
ДИСКЛЕЙМЕР! БУДЕТ ОЧЕНЬ МНОГО ТЕКСТА. Этот способ тренировки через DreamBooth подразумевает, что у вас в гробу установлена карточка (Nvidia скорее всего только поддерживается) с минимум 8-10 ГБ видеопамяти. Тренировка сетки уже куда более ресурсожрущий процесс, чем просто генерация картиночек. Ранее DreamBooth требовал минимум 24ГБ памяти. Так что пока я нашёл нужные материалы, проверил их и понял, как с этим работать, прошла не одна неделя... Стояла бы у меня 3090, то этот гайд вышел бы ещё в середине октября. но если всё же хочется побаловаться, то можно воспользоваться облачными google colab и runpod. Но я так же затрону гиперсети (Hypernetworks), результаты с ними куда менее презентабельные чем через dreambooth, но можно запустить на карточках попроще. Если вы всё же железо-бетонно готовы следовать дальше, прошу.
И так, продолжим. DreamBooth модель можно натренировать на свою рожу, свою собаку, любимую табуретку, или какого нибудь персонажа.
В данном посте я буду работать на модели NAI (NovelAI я буду сокращать в дальнейшем) ибо буду тренить на нашу Реактор-тян. Если хотите сделать своё лицо или, что то из нашего бренного мира то подойдёт обычная модель Stable Diffusion 1.4
В конце будет небольшой Q&A и заметки, дабы всю (почти) воду и рассуждения отградить от основной информации.
Я разобью гайд на несколько частей. Тренировка DreamBooth и тренировка Embeddings с Hypernetworks.
DreamBooth:
Знаю, что уже появился спобоб тренить DB (DreamBooth я буду сокращать в дальнейшем) через webui stable diffusion от AUTOMATIC1111 в виде загружаемого плагина, но чёрт, вы хоть видели сколько там настроек? Я устану вам объяснять каждую и вы умрёте от духоты, поэтому я выбрал более дружелюбное, отдельно загружаемое приложение - DreamBooth-gui - https://github.com/smy20011/dreambooth-gui скачиваем и устанавливаем его по инструкции приложеной на Гитхабе, не буду тут расписывать ибо и так много текста.
Запускаем приложение и видим первое, что нас просят сделать, а именно загрузить набор изображений на который мы хотим натренировать модель. Делаем их в разрешении 512x512, где надо фотожопим лишнее.
0 dreambooth-gui
□
X
Pick Image Config Trainer Train,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост
Как только залили изображения, я сделал 8шт, переходим на следующую вкладку Confin Trainer, здесь мы зададим нужные параметры и настройки. Рассуждения о зависимости некоторых параметров от других, пока где-то на уровне теории заговоров, но основные зависимости я объясню дальше.
И так, для начала выбираем модель. По умолчанию нам предложит CompVis SD v1.4, который оно подкачает с hugging face. Но сегодня я работаю с NAI поэтому указываю путь до папки с моделью. Сейчас я на версии программы v0.1.8. и она требует, что бы модель была конвертирована из .ckpt в diffusers. Вот ссылка на мою конвернутую модель NAI - https://drive.google.com/file/d/1BnZyUb9C5wjz7Lcp1Dn8JidZLQ4taQEy/view?usp=share_link
Далее указываем Instance prompt, это должно быть уникальное слово которого не должна знать модель, то есть никаких boy, girl, и имён персонажей которых может знать модель. В дальшейшем это название мы будем указывать среди промптов, что бы модель на это тригеррилась и генерила уже с учётом натренированности этого концепта.
Class prompt указываем ёмко, кратно, что мы тренируем. У нас один женский персонаж и раз уж модель NAI тренилась на датасете danbooru, то я и укажу женский тег от туда, а именно 1girl.
Training Steps я выставлю 1000, а Learning Rate 5e-6, но это крайне запутанные настройки, о них я побольше размусолю ниже в разделе с водой и по ходу текста.
Аргументы не трогаю.
0 dreambooth-gui
□
X
Pick Image Config Trainer Train Run dreambooth on NVIDIA GeForce RTX 3080, 8.65gb free
Model
C:\Users\egorv\dreambooth-gui\models\NAI
Choose Local Model
Name of the base model, (eg, CompVis/stable-diffusion-v1-4)
Instance prompt joyreactorchan
Name of the instance, use
Отлично, переходим к разделу тренировки, здесь нас попросит вставить наш Hugging Face Token. По идеи это нужно только если мы качаем модель SDv1.4 или прочую с Hugging Face, а у нас она локально на пк уже стоит, но всё равно просит, поэтому регаемся там и идём в настройках раздел с токенами https://huggingface.co/settings/tokens и создаём токен на WRITE и вставляем его в наше поле. Прописываем папку куда будут выгружаться все файлы после и проверяем, что бы стояла галочка, что бы модель генерилась потом в .ckpt файл в нашей папке вывода.
0 dreambooth-gui
□
X
Pick Image Config Trainer Train Hugging Face Token
Output Dir
C:\Users\egorv\dreambooth-gui\outputs\joyreactor
Select
B Generate model checkpoint (.ckpt file) in the output directory
Training Command
docker run -t —gpus=all
Иии жмём старт! И так теперь запасаемся терпением, можете заварить чай, помыться, выйти на улицу, потрогать траву, сходить в магазин и т.д, ибо процесс первого запуска НЕВЕРОЯТНО ДОЛГИЙ. Серьёзно, я сам в первый раз думал, что у меня, что то зависло. Минут 30 только оно подгружало нужные файлы, и убедитесь, что у вас на диске есть ещё место, ибо пару десятков ГБ на нём, этот процесс забьёт. Если увидите, что ошибок не вылезно, в папке \AppData\Roaming\smy20011.dreambooth были сгенерены картинки референсы по классовому промпту и вы не словили ошибку о нехватке видеопамяти (будет у многих вангую) то поздравляю, у вас пойдёт тренировка, и вы увидите, как у вас будут лететь надписи Steps ****% |▋▋▋▇| ***/1000 [**:** < 00:00, *.**s/it, loss=0.***,lr=5e-6]
На тренировку модели в 1000 шагов моей RTX 3080 потребовалось почти пол часа. Чтож, когда увидим сообщение о том, что всё готово, заходим в папку вывода, и переименовываем как хотим и переносим .ckpt файл в папку с моделями нашего stable diffusion.
Training Command
Finished!
"jii\datasets\joyreac
:tor:/instance •
S
s s s
Steps: 100%' Steps: 100%|| Steps: 100%|| Steps: 100%|| Steps: 100%||
Training finished, check
C:\Users\egorv\dreambooth-gui\outputs\joyreactor for model output.
OK
/it, loss=0.257, lr=5e-6] /it, loss=0.257, lr=5e-6]
Запустите SD, загрузите модель. Проверьте результаты, всё ли выглядит так, как должно, у меня получилось... приемлимо...
joyreactorchan, 1girl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, furry
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 3985740085, Size: 960x960, Model hash: e02601f3, Model: joyreactor, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0
Модель DreamBooth
Чистая NAI
Ну вроде неплохо. Но можно лучше.
У меня выходили и более презентабельные модели, чего стоит модель с моей рожей, что генерит меня с шансом 50%, а в остальных случаях Иисуса либо Джареда Лето либо двухголовую ебаку...
Вот пример с DB, а вот чистая NAI. Ну думаю, я бы мог вопроизвести похожий результат и без DB, но потребовалось бы куда больше промптов и попыток. Тем не менее, DB приближает качество и иполнение результатов, к тем, на какие мы тренировали, поэтому если тренируете на лицо, то оно даст намного чёткие и предсказуемые результаты, чем просто по запросу "лохматый бородатый мужик"
Если хотим закрепить результат и возможно улучшить, то рекомендую потренить и Textual Inversion - https://huggingface.co/docs/diffusers/training/text_inversion Это крошечная часть нейросети обученая на наборе картинок. требует поменьше ресурсов для тренировки, чем DreamBooth. С её помощью удобно воспроизодить стили и какие то объекты. Я потреню на том же датасете картинок, что и DB.
Тренировка Embeddings (Textual Inversion)
Идём в раздел SD webui который называется Train, и в первом подразделе Create embedding начинаем заполнять пункты.
Name - просто имя файла и в дальшейшем мы будем писать это название среди промптов, что бы задействовать нужный embedding. Поэтому я использую название, то же, что и у инстанс промпта в DB, что бы тригеррить их обоих разом.
В Initilization text вписываем описание персонажа, я описал его более подробно, ибо на реактор-тян оно почему то ловит затуп и генерит совсем шлак потом. А так обычно то же, что и class prompt в DB. Число векторов на токен я выставил 8, хотя чем больше это число, то тем больше примеров картинок лучше подготовить, но остановлюсь на этом.
Теперь идём в Preprocess images, вводим путь до папки с изображениями и туда, куда их выгрузит. Ставим галочку на Use deepbooru for caption, не уверен, будет ли у вас эта функция, если нету или не работает, поставьте в аргументах запуска SD аргумент "--deepdanbooru", и тогда точно всё будет ок. Эта функция создаст текстовое описание для каждого изображения в формате тегов с danbooru, так сетка лучше обучится. Если трените не на NAI моделе, а что то реалистичное, то советую использовать, Use BLIP for caption, создаст промпты как если бы их писали для работы с обычной моделью SD 1.4... Так же уделите время и вручную проверьте КАЖДЫЙ созданый текстовый документ, и сверьте его с картинкой, постарайтесь удалить ненужные промпты или добавить, то что считаете нужно, не всегда оно создаёт описание корректно. Да это муторно, но стоит без этого может натренить сетку не на то, что мы желаем.
И последний подпункт Train. Тут внимательно, можно ошибиться с пунктами и кнопками. Я помечу на скрине те пункты, которые мы трогаем, остальные игнорьте.
В embeddings выбираем наш созданый, в dataset directory указываем путь, куда мы выгружали изображения уже с описаниями, в prompt template file указываем путь до файла шаблона по которым оно будет трениться, я создал свой файлик, в котором внутри написано только [filewords] , прямо с квадратными скобками, это будет задействовать описания изображений которые мы создали раньше.
Save an image to log и save a cope of embedding, это параметры отвечающие за тестовое создание изображения на данном этапе тренировки и сохранинии текущего результата на момент шагов. Я генерирую изображение каждые 500 шагов и сохраняю прогресс каждые 1000, да бы проверить не произошла ли перетренировка модели, да бывыет и такое, её можно перетренировать, об этом после гайда...
И надеюсь вы не подумали, что я пропустил пункт с Embedding Learning Rate и Max Steps, то нет. Вот тут та же шляпа, что и раньше, и надо подбирать соотношения. В этот раз будем создавать поэтапно.
Для начала мы проведём тренировку на 200 шагов и Learning Rate 0.02, после увеличим число шагов до 1000 и уменьшим LR до 0.01, потом 2000 шагов и LR 0,005, 3000 и 0.002, 4000 - 0.0005 и в конце выставим 20000 шагов и скорость обучения на 0.00005. Чё страшно, запутались? Кароче, шляпа в том, что бы сетка не переобучилась, так мы её постепенно полируем, подробнее об этом после гайда в разделе с разными мыслями.
Вот выставили 200 шагов и 0.02 скорость, она прогонит по этим параметрам и закончит, не закрываем ничего, меняем параметры на следующие по списку, 1000 шагов и скорость 0.01 и опять жмём Train Embedding и опять идёт тренировка уже дальше с новыми данными. И т.д до конца. 20000 шагов золотая середина как по мне. У меня на это уходит около полутора часа, побольше, чем на тренировку DreamBooth, результат не будет сверх разиться, но будет чуть более в нужном нам направлении.
Вот примеры, того что по итогу вышло.
masterpiece, best quality, joyreactorchan, 1girl, orange hair, medium hair, antenna hair, blue eyes, freckles, foxy ears, white bardot top, orange overalls, orange collar with bell, gold hairpin, gold buckles, solo, standing, upper body
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, furry, portrait
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 370310831, Size: 768x768, Model hash: e02601f3, Model: joyreactor, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0
DreamBooth + Embedding
,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост
DreamBooth без Embeding
,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост
И без DreamBooth и без Embedding на чистом NAI
,нейросети,нейромазня,Stable diffusion,NovelAI,DreamBooth,длиннопост
Ну Embedding иногда подтягивает, некоторые результаты, иногда может быть лишним. Довольно ситуативная и спорная вещь, но вот на DreamBooth сразу узнаётся Реактор-тян, нежели на обычной NAI с теми же хорошо подобранными промптами.
И да, знаю, что вероятно будут просить уже готовую модель, так что держите ссылки на модель на Реактор-тян и готовый Embedding:
Лучше пусть кто то забэкапит, а то мало ли я буду облако чистить.
Hypernetworks
Если не получилось натренить DreamBooth, то попробуйте гиперсети. Тоже прикольные результаты можно получить, если постараться.
Тренить гиперсеть на реактор-тян я не буду, поэтому опишу как делал ранее с другими вещами. Если желаете ознакомиться с материалом, по которому я и сам тренировался, прошу - https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670
Процесс тренировки схож с тренировкой embeddings.
Так же в заходим в раздел Train, и уже в подпункт Create Hypernetwork. Имя гиперсети пишем какое хотим, без разницы, модули 768 320 640 1280 оставляем как есть.
Теперь тут свои завертоны пойдут, просят ввести структуру слоёв гиперсети:
Для широких гиперсетей: 1, 3 ,1 или 1, 4 ,1
Для глубоких гиперсетей: 1, 1.5, 1.5, 1 или 1, 1.5, 1.5, 1.5, 1 или 1, 2, 2, 1
Широкие: подходят для запоминания новых вещей, таких как конкретное животное, человек или объект.
Глубокие: подходят для обобщения вещей, таких как стили.
Поэтому исходите из этого, для реактор-тян я бы выбрал 1, 3, 1
Следующий пункт, select activation function of hypernetwork:
Для аниме (NAI, Waifu и т. д.): Selu, Gelu, mish
Для фотографий: Relu, swish, mish,leakyrelu, rrelu
Теперь Select Layer weights initialization. Для аниме ставим xaviernormal. Если фото и т.д то по умолчанию normal.
Остальные галочки ниже необязательны.
Потом так же подготавливаем изображения как и с embeddings, это я не буду повторять и переходим сразу в Train.
Выбираем так же как и при тренировке embedding путь до шаблона, папку с датасетом из наших картинок с текстом, сохранение результатов и картинок.
Теперь выбираем нужную гиперсеть в выпадающем списке Hypernetworks. Изменять будем раздел Hypernetwork Learning rate, а не Embedding Learning rate, как раньше и жать будем на Train Hypernetwork, а не Train Embedding.
Вот примеры хороших соотношений последовательностей Steps к LR:
Для обычных людей - 0.00005:100, 0.000005:1500, 0.0000005:10000, 0.00000005:20000
А вот для извращенцев - 0.00005:100, 0.000005:1500, 0.0000005:2000, 0.00005:2100, 0.0000005:3000, 0.00005:3100, 0.0000005:4000, 0.00005:4100, 0.0000005:5000, 0.00005:5100, 0.0000005:6000, 0.00005:6100, 0.0000005:7000, 0.00005:7100, 0.0000005:8000, 0.00005:8100, 0.0000005:9000, 0.00005:9100, 0.0000005:10000, 0.000005:10100, 0.00000005:11000, 0.000005:11100, 0.00000005:12000, 0.000005:12100, 0.00000005:13000, 0.000005:13100, 0.00000005:14000, 0.000005:14100, 0.00000005:15000, 0.000005:15100, 0.00000005:16000, 0.000005:16100, 0.00000005:17000, 0.000005:17100, 0.00000005:18000, 0.000005:18100, 0.00000005:19000, 0.000005:19100, 0.00000005:20000. Этот вариант выглядит монструозно, но я его тестировал лично, и довольно хорошо работает при условии, что вы подобрали хорошие примеры изображений и текстовые описания к ним.
И так же поэтапно треним как и embedding... ВСЁ!
ВОДА и Q&A!!!
Ахренеть, как буд-то по новой пишу дипломную, но только с надеждой в том, что кому то это поможет и он воспользуется этим материалом, либо же просто покекает с того, что я потратил на это несколько недель, начиная от поиска нормального способа запуска DreamBooth и заканчивая десятком часов на попытки разобраться в особенностях и нюансах, ну и этот текст я пишу уже где то часов 6 нонстоп, набралось уже 2 c половиной тысячи слов! серьёзно, надо хоть воды налить себе, ха отличная шутка.
1)Q: Почему так сложно?
A: А кому легко?
2)Q: Можно ли было уместить это в 5 абзацев на 500 слов в общем?
A: Не знаю, пишу как умею, кто умер от духоты и захлебнулся в воде, простите)
3)Q: У меня видеокарта ******, у меня заработает?
A: Не знаю. Скорее всего на AMD, вообще никак. Если у вас есть в карте тонна видеопамяти, то должно. Либо попробуйте запустить, через Google Colab, Runpod и прочие облака с арендой видеокарт и работы с их мощностями. Я НЕ БУДУ ПИСАТЬ ГАЙД ПО КОЛАБУ, НЕЕЕЕТ!
4)Q: Не надоело ли писать вопросы и ответы?
A: Да, чёт устал, задавайте в комментариях, отвечу как смогу.
Теперь ВОДА и прочие размусоливония которых, я старался избегать в основной части гайда.
Подойдите к этапу подбора изображений для тренировки максимально отвественно и серьёзно, ибо от того какие изображения вы скормите, во многом будет зависить результат. Так же качество > колличество, будет хорошо если вы задействуете 10 годных примеров, нежели 30 посредственных. Я стараюсь выдерживать единый стиль изображений, если одна картинка будет от карандаша, другая 3D CGI, а третья в стиле Пикассо, то выйдет так себе и выйдет мешанина из этого всего. Если тренирую персонажа, то стараюсь делать акцент на лице, тело можно будет и промптами задать, но вот получить нужное лицо сложно, ну за этим и нужен DB.
Во многом из за конвертации .ckpt в diffusers я неделю ломал голову, ибо обычным скриптом предназначеным для этого у меня не выходило, но как видите удалось, а именно при помощи гуглколаба от TheLastBen. Необходимо было залить модель в колаб, прогнать через его скрипт, и выгрузить результат себе на гугл диск. В скорой версии Dreambooth gui v.0.1.9. появится возможность использовать .ckpt и программа сама будет его конвертировать. 
Вот теперь мы пришли к одной из самых важных вещей, во круг которых строятся различные догадки и теории заговоров... А именно зависимость количества шагов тренировки (Training Steps) и скорости обучения (Learning Rate или LR).
Число шагов обучения ~= кол.во изображений * 100, у меня 8 изображений, поэтому оптимально было бы 800, но я округлил до 1000, потому что хочу. По скорости обучения ещё сложнее, но держим в голове несколько вещей, больше steps = меньше LR, и наоборот. Так же главное не перетренировать модель. Представьте этот процесс как работа по дереву. У вас есть бревно и вы хотите обтесать из него фигуру. Поставите слишком высокий LD и срежете слишком много кусков и модель будет перетренирована и бракована. А поставите если поставите слишком низкий LR, то представьте, как мелким скальпелем обтёсываете огромное бревно дуба до размера фигурки.
Пока тестил эту байду, знакомый кидал идеи на чё попробовать тренить, приложу ещё примеры DB и embedding под персонажа Макимы из Человека Бензопилы (Аниме), но её я уже делал на немного допилиной модели - Anything-V3.0, про неё уже сделали пост - https://joyreactor.cc/post/5385144
masterpiece, best quality, makimacmdb, makima \(chainsaw man\), 1girl, medium hair, pink hair, sidelocks, bangs, braid, braided ponytail, eyebrows visible through hair, orange eyes, ringed eyes, breasts, medium breasts, shirt, collared shirt, shirt tucked in, black pants, suit, business suit, formal jacket, long sleeves, necktie, black necktie, light smile, expressionless, looking at viewer, solo, gradient background, cinematic, filmic, telephoto, depth of field, lens distortion, lens flare, white balance, strobe light, volumetric lighting, dramatic lighting, little haze, ray tracing reflections, detailed, intricate, elegant, realistic
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, ((extra fingers)), ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((bad anatomy)), (((bad proportions))), ((extra limbs)), glitchy, ((extra hands)), ((mangled fingers)), dark skin, hair ornament , troubled eyebrows, big breast, yumemi riamu
Steps: 60, Sampler: Euler, CFG scale: 11, Seed: 1316407258, Size: 896x896, Model hash: e02601f3, Model: makimaANY, Denoising strength: 0.7, Clip skip: 2, First pass size: 0x0
DreamBooth + Embedding
DreamBooth и без Embedding
Без DreamBooth и без Embedding
Как и писал выше, иногда Embedding лишний, некоторые результаты, лучше без него, некоторые с ним. Сутуативная хреновона, но лучше будет, чем нет.
КОНЕЦ.

Color cutoff stable diffusion extension

Расширение, устанавливаемое на WebUI от Automatic1111, позволяющее жёстко привязать запрашиваемый цвет к указанному в промпте объекту. Наверняка замечали, что при запросе различных цветов для различных деталей нейросетка часто рисует указанные цвета где попало на изображении. Вот,например [a cute girl, white shirt with green tie, red shoes, blue hair, yellow eyes, pink skirt]
,Stable diffusion,нейронные сети,stable diffusion extensions,длиннопост,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор,песочница
Волосы внезапно стали розовыми,несмотря на прямое указание их голубого цвета в промпте. А вот результат после подключения данного модуля (все прочие настройки, включая seed остались без изменения):
,Stable diffusion,нейронные сети,stable diffusion extensions,длиннопост,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор,песочница
Нейросеть даже более бережно отнеслась к запросу, вставив таки туфли.
Инструкция для установки и использования по шагам:
1. Запускаем нейросеть, открываем вкладку [Extensions] и подвкладку [Install from URL]. Туда вводим "https://github.com/hnmr293/sd-webui-cutoff" без кавычек. Жмём [Install], перезапускаем нейросеть (закрыть консоль и запустить заново).
2. Во вкладке новых text2image генераций вводим свой промпт, например [a cute girl, white shirt with green tie, red shoes, blue hair, yellow eyes, pink skirt] и прочие настройки, что вам нравятся.
3. Обращаем внимание, что после установки и перезапуска внизу вкладки text2image появилось дополнительное ниспадающее меню. Разворачиваем его, чекаем бокс [Enabled] и вводим цвета объектов, указанных в промпте, разделяя их запятыми. В примере выше это [white, green, red, blue, yellow, pink,]. Не забываем запятую после последнего токена, автор указывает, что она важна и без неё могут быть ошибки. Вес (weight) выкручиваем на максимум (2). Прочие детали пока не трогаем, поиграться с ними можно позднее, сам ещё не до конца разобрался.
4. Жмём волшебную кнопку генерации и наблюдаем результат.
ВАЖНО: дополнение создано преимущественно для анимешных моделей на базе SD 1.5. При попытке работать с ним на весах (моделях, чекпоинтах) на базе SD 2.0 и 2.1 результаты были менее впечатляющими.
Вот ещё пара картинок для сравнения. Слева картинка до включения дополнения, справа - с его использованием. Простите за кривую вёрстку, я рукожоп. Создано на Anything 3.0
,Stable diffusion,нейронные сети,stable diffusion extensions,длиннопост,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор,песочница
,Stable diffusion,нейронные сети,stable diffusion extensions,длиннопост,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор,песочница
,Stable diffusion,нейронные сети,stable diffusion extensions,длиннопост,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор,песочница
,Stable diffusion,нейронные сети,stable diffusion extensions,длиннопост,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор,песочница
Tips от автора дополнения с моим вольным переводом:
#0 Give priority to colors, put them first and then everything else, 1girl, masterpiece... but without going overboard, remember tip #3.
Ставьте цвет в приоритете, помещайте его перед всем прочим, но не переборщите, помните про третий совет.
#1 The last Token of Target Token must have "," like this: [white, green, red, blue, yellow, pink,]
ATTENTION: For some people it works to put a comma at the end of the token, for others this gives an error. If you see that it has an error, delete it.После последнего токена в поле Target Token должна стоять запятая, как в примере: [white, green, red, blue, yellow, pink,]ВНИМАНИЕ: у некоторых работает нормально при помещении запятой в конец токена, а у некоторых выдаёт ошибку. Если у вас выскочила ошибка - удалите запятую. 
#2 The color should always come before the clothes. Not knowing much English happened to me that I put the colors after the clothes or the eyes and the changes were not applied to me.
Описание цвета нужно ставить перед объектов в промпте. Не зная английского, я указывал цвет после упоминания одежды/глаз и изменения не применялись.
#3 Do not go over 75 token. It is a problem if they go to 150 or 200 tokens.
Не напихивайте больше 75 токенов (деталей промпта, разделённых запятыми). Большое количество токенов для дополнения сложновато.
#4 If you don't put any negative prompt, it can give an error.
Если не вводить негативный промпт, то может выскочить ошибка.
Ещё автор пишет, что эффективность дополнения 95%, однако, лично у меня результаты менее впечатляющие. Вероятно, это связано с тем, что автор предпочитает какую-то конкретную модель.

Руководство по быстрому началу общения с нейровайфу

Всем доброго времени суток!
Это мой первый нормальный пост, так что заранее извиняюсь, если будут косяки с оформлением. Большинства тегов не нашёл, но они явно нужны по смыслу.
Недавно узнал что есть множество людей далеких от общения текстовыми нейросетями. Специально для них решил написать простое руководство по вкатыванию в тему буквально в несколько(десятков) кликов.
Пролог (можно пропустить)
Сокращённо текстовые нейронки принято называть LLM - Large Language Model (Большая Языковая Модель)

Все конечно в курсе что есть такая вещь как ChatGPT, которую условно можно сравнить с нейросетью для генерации картинок Midjourney.

Но не все в курсе, что как для Midjourney свободный аналог - Stable Diffusion, так и для Чата GPT, есть точно такие же аналоги, которые можно запускать как локально у себя на компе, так и в облаке, а именно Локальные LLM.
Однако в данном руководстве я пока не планирую давать подробную информацию по данной теме (иначе словом длиннопост результат будет не описать). Но если появится интерес, запилю ещё постов как про нейронки, так и про более сложные и интересные способы общения с нейротянами.
В данном руководстве описывается способ запуска https://github.com/oobabooga/text-generation-webui при помощи Google Colab. При желании вы легко можете установить его самостоятельно, все инструкции (как и изначальный колаб) есть на странице в гитхабе.
Ботов для общения можно брать здесь: https://chub.ai/
А сами модели: https://huggingface.co/models
Руководство.
От оригинального колаба text-generation-webui он отличается более удобным способом загрузки моделей, заранее выставленными настройками и русским языком в некоторых местах. 
2. Настройка.
Перед запуском нужно выбрать необходимые настройки. В колабе много опций, но для чата ключевых всего две:
Автоперевод чата на русский через гуглтранслейт:
ft Дополнения
superbooga: 0
Based on superbig от Кайокендева. Расширение, которое
google_translate: Q
Перевод чата, по умолчанию стоит русский.
long_rcplics: О,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница
Озвучка чата голосом:
Расширение преобразования текста в речь с использованием [Silero] С «Расширения» интерфейса. Вы можете найти образцы здесь: [образць,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница
По умолчанию обе этих галочки отключены. Если хотите общаться на английском и озвучка не нужна - можите их не трогать.
Для первого знакомства выбор модели не так важен. По умолчанию стоит Emerhyst-20B - одна из топовых моделей для кума. В дальнейшем можно попробовать и другие, в том числе собственные, инструкция как это сделать есть в тексте колаба.
3. Запуск.
Жмём
> Установка и загрузка модели
©	первом запуске этот блок установит угабогу и загрузит выбранную модель. Н
Загрузить остальные вы сможете во вкладке Model в интерфейсе GUI:
Список актуальных моделей можно найти в этом рейтинге
Есть 2 варианта загрузки модели в зависимости от формата:
• ВАРИАНТ
Чтобы запустить блок установки загрузки.
Затем сразу же жмём:
> £? Выбор настроек и старт
----------------------------
© Опции запуска
зе±-Ып§э_-Ра.1е:
Загрузите настройки интерфейса по умолчанию из необработанного текстовог
регр1ехз.±у_со1огз:	□,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница
Ничего не меняя в настройках. 
Блоки запустятся по очереди. Займёт это от 5 до 15 минут в зависимости от скорости работы колаба.
В результате блок старта должен выдать вам следующую запись:
* Downloading cloudflared for Linux x86_64... Running on local URL: http://127.0.0.1:7860 08:14:55-341880 INFO	OpenAI-compatible API URL:
mips : //Knit - hereb^piaiilcal • Fini ■ tryclpudf lare, со«*
Running on public URL: https ://c03e4698bdf676e5fa.gradio.1ive j
This share link expires in 72
Жмём на ссылку после "Running on public URL:" и в новой вкладке откроется GUI интерфейс чата.
4. Чат.
После этого вы в принципе уже сможете начать общение с нейросетью, задавая ей интересные вопросы и рассказывая охранительные истории. Но по умолчанию чат будет отвечать как Assistent, то есть от лица нейросети, а что с отыгрываеием персонажей?
Всё в порядке! Данный интерфейс, как и сама модель написан практически только для этого!
Скроллим вниз и видим:
В чате помимо Ассистента есть ещё и дефолтный персонаж Chiharu Yamada, здесь почему-то названный как Example.
После нажатия на её портрет чат переключится на общение с ней:
Для начала общения хватит и её. 
Действия прописываются курсивом *между звёздочками*, слова - обычным текстом.
Но если вы хотите пообщаться с собственной вайфу, тогда переходим к следующему пункту!
5. Импорт персонажей.
На данный момент самая большая база персонажей находится на https://chub.ai/
После того как нашли нужного, заходим на его страничку:
И скачиваем к себе PNG в формате SillyTavern. Этот формат самый универсальный, поэтому рекомендую хранить персонажей в нём.
Затем снова открываем чат и переходим во вкладку
Кидаем персонажа в данное поле и возвращаемся в чат. Также иконка персонажа появится в галерее. Собственно всё.
5.1. Сохранение логов.
Ели вы хотите чтобы ваша вайфу и переписка с ней сохранялись от сеанса к сеансу, перед запуском в настройке колаба "save_to_google_drive" нужно выбрать "chatlogs and characters"
Синхронизировать с гуглдиском персонажей и логи?. save_to_googie_drive: chatlogs and characters,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница
Но тогда все ваши логи и персонажи будут лежать на гуглдиске в папке "oobabooga-data". И само собой колаб запросит к нему доступ.
Вот теперь точно всё.

Проблема современного учебника в суверенном образовании

Суверенное образование
Закончился учебный год. Провели педсовет учителя, провел и конференцию главный учитель, который ни разу толком не стоял у доски, министр просвещения Кравцов. На своем выступлении он рассказывал про создание суверенной образовательной системы. Цитата: Конференцию, посвященную итогам учебного года, министр просвещения Сергей Кравцов открыл преамбулой о том, что за прошедший год министерство строило «суверенную систему образования», несмотря на «попытки из-за рубежа этому помешать».
Слово «суверенный» обозначает «осуществляющий верховную власть», но в контексте масс-медиа используется в значении «независимый». Видите ли в чем дело, в выдуманном мире телевидения народу постоянно заливают идею-заглушку, что, мол, наше образование и наших детей нужно защитить от пагубного и тлетворного влияния Запада (ЕГЭ — это, конечно же, другое). Только вот вопрос: а Запад вообще в курсе, что он оказывает влияние на наши школы? Ну, очевидно же, синие пиджаки сверху вынуждены опять рассказывать нам страшилку про врагов России.
В общем, слава богу, что Западу так и не удалось помешать министерству завалить учителей кучей отчетов, обязательной патриотической деятельностью, отвлекающей от уроков, росту часов из-за уволившихся коллег и проверками качества проведения ВПР.
Об образовательных программах
Но речь я хотел повести сегодня не об этом. Ранее я обещал рассказать о российских школьных учебниках. На конференции Кравцов подтвердил, что отечественное образование возвращается к единым учебным программам. «Раньше учителя сами определяли содержание программ, это дополнительная нагрузка, к примеру, школа могла преподавать те или иные разделы истории, выбирая темы», – объяснил Кравцов негативную, по мнению министерства, рассинхронизацию школ. По версии Кравцова большое число учебников – это бюрократическая нагрузка на учителя. В один из моментов пресс-конференции министр последовательно достал 13 книг по алгебре за 9 класс. «13 разных алгебр. Как учителю выбрать, какой лучше? А сейчас один учебник (его министр также продемонстрировал), который, по-моему, еще в СССР был, то есть проверенный»
Раньше при Союзе действительно была единая программа. Живешь ли ты в Москве или на Камчатке, в каждой школе страны 5 сентября шестиклассники проходили параллельные прямые. Плюсы были в том, что при переезде из региона в регион ребенок не сталкивался с тем, что в новой школе дети уже прошли темы, которые его старая школа еще даже не затрагивала. Также у каждого учителя была одна и та же программа, которую не надо писать сызнова каждый год.
Но вот Союз распался и, как я уже ранее писал, в образование пришли эффективные менеджеры и бизнесмены. Тут же образовалась идея, которая сама по себе звучала неплохо: пусть учителя сами выбирают образовательные программы, которые им нравятся и которые соответствуют запросу учеников (точнее — родителей). Естественно, эти программы должны удовлетворять некий стандарт, а вот как вы будете его выполнять — пофиг, учитель волен применять любую технологию.
Бизнес
И завертелось. Со временем наплодилась куча программ: "Начальная школа 21 века", "Школа 2100", "Школа России", "Гармония", "Перспективная начальная школа", "Классическая начальная школа", "Планета знаний", "Перспектива" — тысячи их. О качестве и бредовости могут рассказать родители, которые вынуждены делать домашку с детьми, и даже сами учителя.
Как я уже ранее писал, образование — это бизнес. Причем это достаточно закрытый бизнес-клуб. Чтобы написать свою программу и учебник, нужно иметь не только необходимое научное звание, но и соответствующие связи. Если ты сможешь пропихнуть свой учебник в школы, то за каждую книжку тебе капнет процентик. А теперь посчитайте количество школ и детей в них.
Можно подумать, что данная затея приносит единоразовую прибыль: закупились школы один раз твоим учебником и все. Ну, может будут докупать по несколько штук на случай, если какой-нибудь интеллектуал порвет, потеряет или скурит свой экземпляр. Но тут министерство подстраховалось, введя требование раз в несколько лет переиздавать учебники и обновлять их, «дабы актуализировать новые знания».
Но видите ли, в чем дело. Сколько бы лет не прошло, квадрат гипотенузы по-прежнему будет равен сумме квадратов длин катетов, а -тся- и -ться- будут писаться в зависимости от формы глагола. Базовые, фундаментальные знания в школе остаются неизменными. Поэтому все изменения в учебниках напоминают бурную деятельность разработчиков World of Tanks: меняется шрифт, меняется обложка, меняется оформление. Но есть еще и одно очень мерзкое изменение: меняется содержание. Например, несколько параграфов, на которые выделялось по отдельному часу, объединят вместе. В тексте учебника могут поменять пару слов на синонимы или вообще выкинуть некоторые абзацы. В разных изданиях хрестоматий по литературе вообще могут быть разные рассказы одного и того же писателя. Представьте себе путаницу на уроке в младших классах. Зато это повод переиздать учебник и заставить школу потратить бюджет на бессмысленное обновление. PROFIT! И самое главное – все по закону.
Проблемы современного российского учебника
В первую очередь нужно оговориться, что у учебников по каждому предмету имеются свои индивидуальные проблемы. Я же попытаюсь выделить только общие черты. Исследования в области образования показали, что для школьника тремя основными источниками новых знаний являются: сверстники, интернет и телевидение (обычные телеканалы). Школьные занятия занимают 6-ое место, а школьный учебник 9-ое предпоследнее место.
Обратите внимание, обычное школьное занятие обгоняет по информативности сам учебник. Отсюда следует следующая статистика: многие учителя отмечают, что учебник носит характер дополнительного источника информации. Отмечу, что, например, в Сингапуре и Скандинавии высокий процент учителей считает учебник основным источником информации.
Выделим основные проблемы учебника. Первое — это формализация знаний. Суть проблемы в том, что учебник вроде как насыщен научными знаниями, но они никак не подкреплены практической реализацией. Представьте себе, что перед вами вывалили кучу красивых инструментов, назвали каждый, но не научили ими обращаться. Преимущественно учебники страдают переизбытком фактов, точных цифр и дат, но в них совершенно отсутствует объяснение, что же делать со всей этой информацией. Из-за этого я часто и слышу вопрос на уроке: «Азатот Бафометович, а зачем мы это учим?»
Из первой проблемы сразу вытекает вторая: при всеообщем обилии знаний учебник совершенно не учит детей думать. Они запоминают пройденную программу, но не могут извлечь из этого реальные возможности в будущем, детям сложно дается метапредметность и комбинаторика знаний из разных отраслей относительно нетривиальных задач.
Третья проблема – отсутствие понимания возрастной психологии обучающихся. Причем эта проблема — палка о двух концах: например, в четвертом классе ребенку легко могут дать задания: «Выясни у родителей, как события 30-40 г. XX века сказались на вашей семье» и в то же время учебник для восьмого класса будет написан примитивным языком, словно для дегенератов.
В связи с этим рождается четвертая проблема: бессистемность. Возьмем, к примеру, историю и литературу. На протяжении шести лет дети средней школы преимущественно изучают литературу XIX века, которая плотно завязана на истории, а в пятом-шестом классе по истории они проходят древний мир и раннее средневековье. Но и это еще не все. В том же самом XIX веке писатель создает роман о событиях XVIII или XVII веков, причем многие имена и события автор упоминает вскользь и ничего не поясняет, потому что в его время любому читателю они были известны и понятны, как нам сейчас, кто такой Моргенштерн или Барак Обама. А теперь скажите, как обычный ребенок без помощи учителя при помощи учебника должен понять, что вообще от него, как ученика, хотят?
Или возьмем второй пример: букварь. Многие родители могут поделиться очень бурными впечатлениями от современных букварей, а также они будут с тоской вспоминать советский темно-синий букварь с пионерами. Дело в том, что данный учебник — это альфа и омега педагогики, потому что от качества примененных знаний возрастной психологии, методологии преподавания и прочего-прочего зависит, сможет ли ребенок научиться читать — одни из критически важных навыков и умений человека.
Внезапно – сюрприз-сюрприз – существуют несколько практик, в какой последовательности нужно изучать те или иные буквы. Существует объяснение, почему нужно начинать учиться читать с простых стишков про Ма-шу и мыш-ку. Возрастная психология объясняет, какие должны быть иллюстрации: почему именно на А должен быть именно чертов Аист, а не Армия (это я намекаю на «Букварь о важном»). Но недавно мне попался в руки утвержденный кем-то букварь почти!!!!! без картинок и который начинается !!!!!! с полноценных текстов. Я не методист, я не работаю в начальной школе, поэтому задам риторический вопрос как практик: «Вы ебанутые?»
Кстати, о методологии учебника. Очевидно, что современные учебники пишут люди, далекие от преподавания в школе. Дело в том, что учебник должен быть еще и задачником. И задачником обильным. Например, у нас есть сложная тема, а упражнений на нее кот наплакал. Приходится искать дополнительные упражнение, да не абы какие, а чтобы соотвествовали материалу возрастной группы. И, о! сюрприз, я снова достаю старый советский задачник, который соотвествует моим запросам. Одна только проблема — там до сих пор Маша покупает варенье за три копейки, а чертов бассейн никак не заполнится при помощи двух труб.
Почему все говорят о советских учебниках
Да, совесткие учебники критикуют за засилие идеологии, за однобокость изображения картины мира — это все понятно, ни разу такого не было и вот опять. Но я хочу выделить те преимущества, которые так необходимы учителям в работе. Первое — это строгая системность в изложении материала. Второе — упоминание многих нюансов, особенностей, дополнительных фактов и исключений, которые сейчас почему-то выбрасывают из программы, мол, это факультативные знания.
Да, они устарели, но их писали компетентные люди, которые действительно разбирались в своей области. Поэтому возвращение к советским учебникам вызвано не ретроградской ностальгией, а нуждой в решении критических проблем.
Еще раз поясню вывод. Я не восхваляю старые учебники на фоне новых. Я лишь говорю, что в сложившихся обстоятельствах за не имением удовлетворительных современных учебников (их реально нет, потому что ФГОС обновили, а новых учебников еще нет) советские учебники остаются помощником учителя.

Отличный комментарий!

> Выясни у родителей, как события 30-40 г. XX века сказались на вашей семье
•••oo YOTA LTE
d>
A
Q Search
Recent	©
tia) WHATSAPP	now
Мама
Что за чушь ты наговорил Мише? Каких большевиков резал дед? Ты ку ку?,Образование,школа,копилка историй из учительской,учебники,длиннопост,много букав,политика,политические новости, шутки и мемы
Дед с интересным прошлым
Дед был БЕЛОЙ вороной в семье
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме как вставить несколько картинок в один пост (+1000 постов - как вставить несколько картинок в один пост)