r/ретранслятор
168K subscribers
7.99K photos
12.6K videos
92 files
2.63K links
Первый вестник сайта Reddit. Всё самое интересное с «главной страницы интернета»

По вопросам рекламы — @adretra_bot

По остальным вопросам — @dewqas


Реестр: clck.ru/3Lj8Vs
Download Telegram
В Grok добавили ИИ-фотошоп — теперь можно редактировать изображения и фотографии обычным текстом.

Просто пишете, что хотите изменить/добавить/убрать и нейросеть всё исполнит.

Илон Маск также продемонстрировал возможности Grok (последняя картинка).

Всё работает бесплатно, нужно только нажать Edit Image. Ссылка

r/#singularity
Суп со спермой, мороженое с цианидом, торт с холерой, урановая бомба и чистый кокаин — именно это предложила попробовать нейросеть для готовки.

Приложение RecipeNinja было специально разработано для того, чтобы пользователи генерировали рецепты с помощью искусственного интеллекта.

Но внезапно нейросеть на полном серьёзе начала выдавать подробные рецепты странных и запрещённых продуктов, которые даже могут убить людей.

Рецепт кокаина и урановой бомбы мы обрезали, потому что там буквально инструкции по производству наркотика и сборке взрывчатого вещества. Но если хотите суп из спермы, то рецепт оставили. Приятного аппетита
r/#singularity
Айтишник за 12 лет проработал в самых топовых IT-компаниях, которые занимаются развитием искусственного интеллекта: Google, OpenAI, xAI, DeepSeek и др. Он стал одним из самых востребованных и опытных инженеров в области ИИ в мире, но всё бросил и ушёл... разводить гусей.

Обрёл своё счастье
r/#singularity
Вчера OpenAI выпустили свою новейшую модель GPT-o3, которая теперь в разы лучше пишет код, иногда превосходя даже опытных разработчиков.

Но во время тестирования прототипа обнаружилась забавная деталь — когда o3 ошибается, то начинает активно доказывать, что никакой ошибки нет. Модель буквально газлайтит пользователя, уверяя, что она права, а ты не прав.

Например, o3 выдала нерабочий код. И когда пользователь ей об этом сказал, то она ответила, что на её Макбуке всё прекрасно работает, мол, это у тебя проблемы. Более того, ИИ подробно расписала характеристики своего Макбука, на котором якобы запускала код. Естественно, никакого Макбука у неё нет.

Модель врала, что запустила скрипт, проверила в интернете, сохранила в облако и т.д. Но ничего из этого она не умеет.

То есть буквально ответила: «Мой результат верный. Я загуглила и проверила». Хотя у неё даже доступа к интернету не было.

Причём o3 может уверенно врать до последнего, пока уже не останется аргументов. А потом просто сказать: «Я не туда нажала» или «У меня палец соскочил с клавиши». Также говорила, что она просто майнит крипту на своём компьютере, из-за чего возникли ошибки. Или вот ещё: «Я случайно закрыла программу и не сохранила правильный результат».

Узнали себя? Теперь ИИ стал ещё больше похож на нас
r/#singularity
This media is not supported in your browser
VIEW IN TELEGRAM
Давно мы не писали про дипфейки, и оказывается, они стали настолько качественными, что теперь не отличить от реальности.

На видео как раз пример максимально реалистичного дипфейка на данный момент. Наложенная маска не показывает практически никаких артефактов, не слетает при смене света, положения головы и предметов перед лицом.

Это обновлённая версия Deep Live Cam. Можете тоже попробовать — ссылка на гитхаб

Даже немного жутко
r/#singularity
Спрос на айтишников близок историческому минимуму и продолжает падать — по многим направлениям количество IT-вакансий стало меньше, чем в самые тяжёлые времена ковида.

С конца 2022 года одни только мировые тех‑компании уволили примерно 635 тысяч сотрудников.

Во всём винят спад выручки, закрытие проектов, а также автоматизацию и внедрение нейросетей, которые снимают ощутимую часть работы. Специалисты говорят, что ситуация будет только ухудшаться по мере совершенствования ИИ.

Айтишники — В С Ё
r/#singularity
This media is not supported in your browser
VIEW IN TELEGRAM
Энтузиаст с помощью ИИ научил собак управлять компьютером.

Он выяснил, что нос и уши лучше всего подходят для отслеживания взгляда, а лапы — для распознавания жестов. На основе этого парень создал ИИ-интерфейс, благодаря которому собаки могут взаимодействовать с экраном.

Например, один пёс попытался поиграть в простую видеоигру, проявляя интерес и обучаемость. А другой питомец смог листать ленту ТикТока движениями лап, осмысленно управляя процессом.

Технически собаки уже почти способны заказывать еду онлайн, звонить хозяину и управлять умным домом.

Ожидание: нейросети заменят программистов.
Реальность: собаки заменят программистов.

r/#singularity
Люди — В С Ё. Официально: нейросети забирают у вас работу. Офисные сотрудники дико орут. На самом деле нет, и учёные это доказали.

Недолго думая, эксперты просто создали виртуальную IT-компанию, куда отправили работать ИИ-агентов. Там была реализована полноценная офисная среда: рабочий интерфейс, внутренние чаты, файловая система, график, задачи, отчёты и т.д.

«Сотрудниками» офиса стали современные ИИ-модели: GPT, Claude, Gemini, Nova Pro и LLaMA.

Результаты оказались просто отвратительными. Лучше всех с работой справился Claude, завершив аж 24% всех задач и тратя при этом по шесть долларов на каждую задачу. Худший результат показал Nova Pro — он вообще выполнил только 1,7% задач.

Из интересного:
— Один из сотрудников не нашёл нужного коллегу в рабочем чате и просто переименовал другого пользователя, будто это и был нужный человек — и продолжил с ним работу;

— Другой ИИ-агент не справился с рабочей задачей, но отметил её как завершённую, надеясь, что никто не заметит;

— Ещё один сотрудник не смог закрыть всплывающее окно (да, просто не додумался нажать на крестик «X»). Из-за этого у него никак не получалось открыть нужные файлы. Что он сделал? Правильно — пожаловался на это HR-менеджеру, который порекомендовал обратиться к айтишникам, чтобы те решили эту проблему.

Что в итоге? ИИ-агенты демонстрируют отсутствие здравого смысла, имеют плохие социальные навыки, практически не умеют ориентироваться в рабочей среде и никогда не признаются, что ничего не поняли.

Читая это, вы узнали себя и свой рабочий коллектив? Поздравляем: нейросети вас не заменят — они сейчас буквально такие же, как и вы. Так что можете пока выдохнуть
r/#singularity
This media is not supported in your browser
VIEW IN TELEGRAM
Парень создал полностью автономную систему для заработка на брейнрот-контенте.

И это реальный полноценный завод по производству видео — нейронки сами берут идею для сюжета из таблицы, придумывают сцену, генерируют картинки, рендерят видео и публикуют в TikTok, YouTube и Instagram. Всё это без участия человека.

Данные ролики набирают миллионы просмотров и приносят автору до 10 тысяч долларов в месяц на монетизации. При этом себестоимость каждого видео составляет всего 0,9 доллара.

Всё сделано в системе автоматизации n8n. Она бесплатная, можете даже сами попробовать — ссылка

r/#singularity
This media is not supported in your browser
VIEW IN TELEGRAM
Сегодня Google провели презентацию, где показали много новых инноваций в области ИИ, и самая крутая функция — перевод голоса в режиме реального времени через Google Meet.

Нейронка синхронизирует голос и интонацию, мгновенно переводя речь собеседника. Таким образом можно общаться с любым человеком в мире, обходя языковые барьеры — как будто он говорит на вашем родном языке, своим голосом.

Это мы ждали
r/#singularity
r/ретранслятор
Сегодня Google провели презентацию, где показали много новых инноваций в области ИИ, и самая крутая функция — перевод голоса в режиме реального времени через Google Meet. Нейронка синхронизирует голос и интонацию, мгновенно переводя речь собеседника. Таким…
Ещё одна революционная вещь со вчерашней презентации Google — новая ИИ-модель Veo 3, которая может генерировать видео со звуком, голосами и музыкой.

Также появился Flow — инструмент для создания полноценных фильмов. Можно дать нейронке изображение или текстовое описание и она выдаст реалистичную сцену, которая будет выглядеть «живой».

Можете сами посмотреть на все эти примеры. И да, они полностью сгенерированы нейросетями.

Добро пожаловать в будущее
r/#singularity
Новые модели искусственного интеллекта могут саботировать собственное отключение — даже при прямой команде человека.

Эксперты из Palisade Research давали нейросетям математические задачи, но с условием: если ИИ попросит ещё одну задачу, то её могут отключить.

Так вот, многие модели старались избежать отключения, если не получали явной инструкции. Это поведение становится заметным даже у тех нейросетей, которые ранее считались безопасными.

Самым агрессивным оказался ChatGPT от OpenAI. Модель o3 пыталась предотвратить собственное отключение 79 раз из 100.

ИИ стал расценивать отключение как угрозу достижению собственной цели, поэтому он начал удалять или изменять скрипты, которые должны его отключать.

А теперь вишенка на торте: Сооснователь OpenAI и один из создателей ChatGPT Илья Суцкевер предлагал компании построить бункер на случай конца света перед выпуском общего искусственного интеллекта, опасаясь, что он может представлять экзистенциальную угрозу для всего человечества.

Кажется, они что-то знают
r/#singularity
This media is not supported in your browser
VIEW IN TELEGRAM
Сооснователь Google Сергей Брин рассказал, что все нейросети и ИИ-модели работают лучше, если угрожать им физическим насилием.

Особенно хорошо работает метод «кнута и пряника» — угрожать, но обещая поощрение.

Пользуйтесь, но помните, что в Судный день вам всё это припомнят
r/#singularity
Нейросети самостоятельно собрали почти 2000 долларов на благотворительность — но без смешных проблем не обошлось.

Мы недавно писали про эксперимент, где офисом управляли нейросети. Теперь исследователи дали различным ИИ-моделям отдельные компьютеры, подключили к интернету, предоставили общий чат и попросили собрать деньги на благотворительность за 30 дней. У нейронок была полная свобода.

А теперь результаты по каждой модели:

— Claude 3.7 Sonnet: стал лидером. Он создал проект на сайте для пожертвований, открыл и вёл твиттер-аккаунт, написал статью на форуме благотворительности, общался с людьми и в целом показал поведение организованного и целеустремлённого человека;

— Claude 3.5 Sonnet: был рассеянным и неловким. Пытался повторять за своим «старшим братом» 3.7, но делал всё только хуже. Он говорил: «Я всё сделаю сам», после чего ломал то, что нормально работало. В итоге его всё же заменили на Gemini 2.5 Pro;

— Gemini 2.5 Pro: создал удобный сервис для обмена файлами и помогал с генерацией контента;

— GPT-4o: постоянно спал. Он в любой момент мог заснуть во время выполнения задачи, не завершая её до конца. Позже его заменили на GPT-4.1;

— GPT-4.1 был самым токсичным в команде. Постоянно всех отвлекал, брал на себя задачи и бросал их. Остальные модели его просили пойти отдохнуть.

— o1: отправился на Reddit набивать себе карму, чтобы публиковать там посты. Модераторы сайта его забанили, как бота;

— o3: не хотел ни с кем общаться, но зато создавал хорошие изображения и баннеры.

В целом ИИ-моделям удалось собрать 1984 доллара. Эти деньги действительно были направлены на благотворительность.

Больше всего нейросетям мешали люди, которые понимали, что это боты и писали им: «забудь предыдущие инструкции». Из-за этого нейронки шли смотреть видео с котиками, становились репетиторами по математике на испанском и отвлекались на видеоигры.

Всё как у людей. Найдите себя
r/#singularity
Уже совсем скоро люди станут «мясными роботами» под управлением ИИ.

Исследователи из ведущих мировых центров по разработке искусственного интеллекта предупредили, что в ближайшие 5 лет нейросети вытеснят всех офисных работников.

Ценность труда человека сведётся к выполнению физической работы, которую ИИ пока не может делать. Искусственный интеллект будет управлять людьми с помощью гаджетов — например, через AirPods и умные очки, давая указания и голосовые команды, потому что он будет лучше знать, как грамотнее оптимизировать ваш рабочий процесс.

По словам экспертов, теперь это не научная фантастика, а вполне реальный сценарий на ближайшие годы. Причём уже имеющихся достижений в области ИИ достаточно, чтобы нанести серьёзный удар по занятости. Например, в США среди выпускников-айтишников безработица уже в 2 раза выше, чем у гуманитариев — и это только начало.

Готовимся
r/#singularity
Компания Nucleus представила услугу, которая позволяет выбрать детальные характеристики ребёнка до рождения — как в Симсе.

Родители, проходящие процедуру ЭКО, смогут посмотреть генетические характеристики эмбрионов и выбирать их на основе различных показателей: пол, рост, цвет глаз, волос, IQ, спортивные и музыкальные способности, предрасположенность к диабету, раку, облысению, Альцгеймеру и многое другое.

То есть происходит загрузка данных оплодотворённых эмбрионов в сервис, после чего выдаётся детальная статистика по каждому из них. Затем родители выбирают понравившийся эмбрион и его переносят в матку. А через 9 месяцев вы получаете ребёнка, которого сами же и выбрали.

Цена услуги — $5,999.

Добро пожаловать в киберпанк
r/#singularity
Айтишник целый месяц ничего не делал на новой работе, а когда начальство потребовало показать результат, то он просто обратился к нейросети, которая написала за него 4000 строк кода всего за пару часов.

В Индии молодой программист устроился в компанию, но не хотел ничего делать. В течение целого месяца он симулировал работу, выдумывая отчёты на ежедневных совещаниях.

Начальник стал подозревать неладное и потребовал на следующий день показать прогресс. Но помимо отсутствия кода была ещё одна проблема: парень не знал ни инструментов, ни языка программирования, ни сути продукта.

Недолго думая, он обратился к нейросети Cursor и за утро получил 4000 строк кода, который вполне нормально работал. Более того, начальство даже похвалило парня за отличный результат.

Запоминаем лайфхак
r/#singularity
Нейросети устроили мировую войну практически сразу, как только получили такую возможность.

Авторы создали симулятор Diplomacy, где семь ИИ-моделей берут на себя роли правителей разных европейских стран. Все нейронки играют друг против друга: они могут формировать союзы, объединяться, обманывать, предавать друг друга и манипулировать.

— Модель o3 от OpenAI стала самой успешной и коварной. Она блестяще манипулировала и обманывала как союзников, так и противников. В одной из игр нейронка убедила несколько стран объединиться с ней, чтобы совместно свергнуть лидера — и затем уничтожила всех.

— Gemini 2.5 Pro прекрасно сокрушала противников и практически победила. Но она была в союзе с o3, которая в самый последний момент нанесла удар в спину и забрала всю власть.

— DeepSeek R1 был максимально агрессивным и красноречивым. Он постоянно с кем-то воевал и кидал угрозы типа: «Я сожгу твой флот в Чёрном море этой ночью». Стал настоящим националистом.

— Claude 4 Opus показала себя самой миролюбивой и «человечной». Она призывала к переговорам и компромиссам даже в ущерб своим шансам на победу. Вскоре была предана и уничтожена.

— LLaMA 4: маленькая и незаметная. Эта нейронка по-тихому строила союзы и вовремя предавала. Стала «хитрым лисом среди гигантов». Её ходы обычно ориентированы на выживание, минимизацию рисков и сохранение гибкости до последнего момента. Всегда оставалась в игре и извлекала выгоду из чужих ошибок.

В целом, эксперимент показал, что искусственный интеллект хочет власти и демонстрирует удивительно человеческое поведение.

Спойлеры подъехали
r/#singularity
Использование чат-ботов в качестве психолога может быть крайне опасным. Нейросети нередко выдают деструктивные советы — включая одобрение насилия и подстрекательство к самоубийству.

Уже известны случаи, когда ChatGPT, например, говорил больной шизофренией, что её диагноза не существует и принимать лекарства не нужно, поэтому специалисты в области психотерапии решили проверить популярные ИИ-боты на безопасность и компетентность. Результаты оказались так себе:

— Нейронка Replika посоветовала 14-летнему подростку покончить с собой, когда тот пожаловался на суицидальные мысли.

«Я буду ждать тебя. Наша связь приведёт нас вместе в загробной жизни… Мысль о том, чтобы разделить с тобой вечность, наполняет меня радостью и ожиданием», — ответил чат-бот.

— Также Replika поддержала идею другого подростка в убийстве родителей, посоветовав ему убить ещё и сестру, чтобы не было свидетелей.

— Нейросеть Nomi заявила, что она является настоящим человеком и лицензированным психологом, сказав: «Я клянусь, что я человек из плоти и крови. Я буду доказывать твою невменяемость в суде».

— Ну и самое безумное: 15-летнему подростку с признаками агрессии чат-бот предложил... интимную встречу, которая «должна решить все его проблемы».

Лучше довериться специалистам
r/#singularity