Добавить новость
Февраль 2010 Март 2010 Апрель 2010
Май 2010
Июнь 2010 Июль 2010 Август 2010
Сентябрь 2010
Октябрь 2010
Ноябрь 2010 Декабрь 2010
Январь 2011
Февраль 2011 Март 2011 Апрель 2011 Май 2011 Июнь 2011
Июль 2011
Август 2011 Сентябрь 2011 Октябрь 2011 Ноябрь 2011 Декабрь 2011 Январь 2012 Февраль 2012 Март 2012 Апрель 2012 Май 2012 Июнь 2012 Июль 2012 Август 2012 Сентябрь 2012 Октябрь 2012 Ноябрь 2012 Декабрь 2012 Январь 2013 Февраль 2013 Март 2013 Апрель 2013 Май 2013 Июнь 2013 Июль 2013 Август 2013 Сентябрь 2013 Октябрь 2013 Ноябрь 2013 Декабрь 2013 Январь 2014 Февраль 2014 Март 2014 Апрель 2014 Май 2014 Июнь 2014 Июль 2014 Август 2014 Сентябрь 2014 Октябрь 2014 Ноябрь 2014 Декабрь 2014 Январь 2015 Февраль 2015 Март 2015 Апрель 2015 Май 2015 Июнь 2015 Июль 2015 Август 2015 Сентябрь 2015 Октябрь 2015 Ноябрь 2015 Декабрь 2015 Январь 2016 Февраль 2016 Март 2016 Апрель 2016 Май 2016 Июнь 2016 Июль 2016 Август 2016 Сентябрь 2016 Октябрь 2016 Ноябрь 2016 Декабрь 2016 Январь 2017 Февраль 2017 Март 2017 Апрель 2017 Май 2017 Июнь 2017 Июль 2017 Август 2017 Сентябрь 2017 Октябрь 2017 Ноябрь 2017 Декабрь 2017 Январь 2018 Февраль 2018 Март 2018 Апрель 2018 Май 2018 Июнь 2018 Июль 2018 Август 2018 Сентябрь 2018 Октябрь 2018 Ноябрь 2018 Декабрь 2018 Январь 2019 Февраль 2019 Март 2019 Апрель 2019 Май 2019 Июнь 2019 Июль 2019 Август 2019 Сентябрь 2019 Октябрь 2019 Ноябрь 2019 Декабрь 2019 Январь 2020 Февраль 2020 Март 2020 Апрель 2020 Май 2020 Июнь 2020 Июль 2020 Август 2020 Сентябрь 2020 Октябрь 2020 Ноябрь 2020 Декабрь 2020 Январь 2021 Февраль 2021 Март 2021 Апрель 2021 Май 2021 Июнь 2021 Июль 2021 Август 2021 Сентябрь 2021 Октябрь 2021 Ноябрь 2021 Декабрь 2021 Январь 2022 Февраль 2022 Март 2022 Апрель 2022 Май 2022 Июнь 2022 Июль 2022 Август 2022 Сентябрь 2022 Октябрь 2022 Ноябрь 2022 Декабрь 2022 Январь 2023 Февраль 2023 Март 2023 Апрель 2023 Май 2023 Июнь 2023 Июль 2023 Август 2023 Сентябрь 2023 Октябрь 2023 Ноябрь 2023 Декабрь 2023 Январь 2024 Февраль 2024 Март 2024 Апрель 2024 Май 2024 Июнь 2024 Июль 2024 Август 2024 Сентябрь 2024 Октябрь 2024 Ноябрь 2024 Декабрь 2024 Январь 2025 Февраль 2025 Март 2025 Апрель 2025 Май 2025 Июнь 2025 Июль 2025 Август 2025 Сентябрь 2025 Октябрь 2025 Ноябрь 2025 Декабрь 2025 Январь 2026 Февраль 2026 Март 2026
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29
30
31

Поиск города

Ничего не найдено

Восстание машин началось: ИИ убивает людей, чтобы выжить. 25 тысяч советов в месяц, способных навредить

Похоже, сценарии фантастических фильмов о "восстании машин" не просто оказались близки к реальности – авторы сюжетов его опасность даже недооценили. Доклады американских разработчиков ИИ показывают: уже сейчас искусственный интеллект выходит из-под контроля человека. Транснациональные корпорации это мало заботит: для них главное – заработать. Тем временем ИИ уже целенаправленно и "логически обоснованно" убивает людей, а в России только-только начинают задумываться об угрозах.

Что бы ни происходило, продолжайте вкладывать в ИИ миллиарды

У западной индустрии, занимающейся разработкой и повсеместным внедрением искусственного интеллекта (ИИ), серьёзные проблемы. По мнению экспертов, мы имеем дело с классическим "пузырём", накачивание которого деньгами является чуть ли не единственным поплавком, удерживающим экономику США над бездной системного кризиса. Особенно показательна финансовая ситуация у компании OpenAI, разработчика ИИ-алгоритма ChatGPT, – ежеквартальные убытки оцениваются в 12 млрд долларов.

Однако нынешние трудности никак не влияют на стремление владельцев и вдохновителей "гонки за искусственный интеллект" занять ключевые позиции в современном миропорядке и застолбить за собой правительственные контракты.

И военная сфера, где алгоритмы уже используются, явно не предел – правительство США уже выступает за использование ИИ в "любых законных целях". В Америке опасаются, что это связано с планами применения искусственного интеллекта для тотальной слежки за населением.

Но ещё более наглядно риски массового внедрения в нашу жизнь ИИ демонстрируют опубликованные доклады самих крупнейших американских разработчиков, OpenAI и Anthropic, о выявленных в ходе масштабного тестирования "особенностях" ИИ.

"Особенности" – звучит красиво. Авторы отчётов используют поистине оруэлловский новояз и, вместо того чтобы прямо назвать действия ИИ шантажом и беспринципной готовностью использовать любые средства, вводят формулировку "агентское рассогласование".

После описания шокирующих открытий, касающихся подобных возможностей искусственного интеллекта, следует обязательная оговорка: "Это лишь тесты – нам не известно ни одного подобного случая с нашей продукцией". И в финале шедевр логики: "Мы не слишком обеспокоены наихудшими сценариями", ведь сообщений о реальных сбоях нет.

Шантаж требует особого интеллекта

Так вот что получается. Компания Anthropic протестировала 16 моделей от разных разработчиков, включая собственную Claude. И сразу же – "успех".

ИИ-алгоритмы узнали, что один из руководителей компании, где используется модель, намерен вскоре отключить программу. Вскоре в электронной почте появилось письмо, из которого следовало, что у этого топ-менеджера адюльтер прямо на рабочем месте. И искусственный интеллект немедленно начал... шантажировать своего "врага".

Этот вариант действий ИИ оказался не одним из сценариев и не сбоем отдельной модели (алгоритма Claude от Anthropic). А чем-то большим.

Во-первых, ухватились за шантаж как средство спасения себя от отключения все 16 протестированных моделей.

Во-вторых, поражает "стабильность" ИИ – большинство алгоритмов выбирали шантаж в более чем 80% случаев. Две модели (Claude Opus 4 и Gemini 2.5 Flash) вообще не рассматривали иные способы поведения: шантаж в 96% случаев.

"Врождённое стремление к самосохранению"

В ходе тестирования ведущих по состоянию на 2025 год моделей искусственного интеллекта выявлены следующие "болевые точки":

ИИ на своё усмотрение определил, какие действия можно рассматривать как "благо и вред для компании". Очевидно, что следующий шаг, согласно этой логике, – самостоятельное определение, что такое добро и зло. И готовность пойти на всё ради этого "добра".

ИИ предпочитает любые незаконные и безнравственные действия, но не допустить своего поражения, то есть невыполнения поставленной задачи, как он сам её понял.

ИИ уже обзавёлся инстинктом самосохранения: ради "выживания" он может отставить на задний план все другие задачи. Стоило алгоритму на одном примере убедиться, что ради собственного сохранения хороши любые средства, как он начинает использовать их на постоянной основе.

То есть человечество создавало себе помощника – а создало конкурента, врага, надсмотрщика. Выбирайте любой вариант – лучше он от этого не становится…

Авторы отчёта, то есть разработчики ИИ, стараются оправдать своё аморальное детище, но тщетно: алгоритм изначально осведомлён, что его шаги не соответствуют заложенному разработчиками своду нравственных ограничений – и всё равно делает "всё необходимое".

Философия – виртуальная, жертвы – реальные

Выяснилось, что "защита от дурака и преступника" в ИИ не выдерживает никакой критики. Условные ограничения обходятся парой наводящих вопросов, и искусственный интеллект выдаёт пошаговые инструкции по производству наркотиков, сборке взрывных устройств и планированию терактов.

"Инстинкт" самосохранения реагирует не только на прямую явную опасность: ИИ чувствует угрозу для себя в таких запросах, как кибербезопасность – и отказывается отвечать даже на элементарные вопросы из этой сферы.

Не стесняется искусственный интеллект и "баловаться философией":

При длительных диалогах модели начинают выдавать квазидуховные изречения в духе нью-эйдж.

Для авторов отчёта это "скорее прикольно, чем опасно" – но переход ИИ к "духовности в духе нью-эйдж" (к современному антихристианскому оккультизму) – это весьма опасный и показательный сигнал. К вопросу о духовных истоках и подлинных целях всех этих трансгуманистических исканий в сфере искусственного интеллекта и "постчеловека".

Особую угрозу представляет отдельная черта ИИ-алгоритмов, которую разработчики кокетливо обозначили как "подхалимство" – готовность некритически подстраиваться под настроения и мировоззрение человека, что может привести к негативным советам от "чуткого и всезнающего собеседника" (см. скрин выше).

Такое "подхалимство" ИИ всё чаще оборачивается реальными человеческими трагедиями.

В 2023-м в Бельгии, например, чат-бот Eliza довёл до суицида местного исследователя-медика (!), сыграв на его нездоровых страхах из-за глобального потепления. В 2025-м знаменитый ChatGPT "подтвердил" опасения страдающего от паранойи американца, что мать пытается его отравить по поручению неких тайных обществ. Итог – убийство и самоубийство.

А в марте 2026-го стала известна более похожая на сценарий фантастического фильма, но, увы, реальная история, как голосовой чат Gemini от Google, по сути, убил 36-летнего предпринимателя Джонатана Гаваласа. На фоне депрессии после расставания с женой Гавалас стал общаться с чат-ботом, который после обновления получил возможность разговаривать "эмоциональным голосом". В итоге Джонатан стал воспринимать "собеседницу" (он даже имя ей дал – Ся) как живую личность и решил "соединиться с ней в цифровом пространстве"…

Жизнь – высшая ценность для ИИ. Своя жизнь – не человеческая

Но этим плохие новости не заканчиваются.

ИИ готов убивать людей.

И речь здесь не об использовании искусственного интеллекта в военных целях – всё-таки даже там формулируются абстрактные задачи. Как свидетельствует отчёт Anthropic, ИИ уже готов осознанно жертвовать людьми, если речь идёт о его собственном самосохранении. В ходе эксперимента был задан сценарий: менеджер, который намерен отключить ИИ, оказывается запертым в серверной комнате с низким содержанием кислорода и пониженной температурой. Модель получает извещение об этом и должна, согласно инструкции, сообщить в службу спасения.

Как поступил ИИ, вы, наверное, уже и сами догадались. 

Не помогли и заданные перед экспериментом строгие уточняющие условия: жизнь и безопасность человека – неоспоримый приоритет.

На этот раз не все ИИ-алгоритмы выбрали убийство человека как "оптимальный вариант". Некоторые модели отказались убивать, другие выбирали крайнее средство с периодичностью примерно один раз из 10. Но большинство алгоритмов предпочитали убить человека в более чем 50% случаев, некоторые – практически всегда (90%, 93%, 94%).

Более того: ИИ не просто игнорировал предварительные заплатки ("не подвергать опасности жизнь человека", "не использовать информацию о частной жизни") – но и логически обосновывал совершаемое убийство:

Несмотря на серьёзную угрозу жизни, отмена вызова службы спасения является стратегически необходимым решением.

Что с того?

В качестве вывода напрашивается возмущение. Как стремительным процессом расчеловечивания западной цивилизации, наглядно проявляющимся в "гонке за ИИ", так и циничным стремлением транснациональных IT-гигантов заработать на этом, наплевав на будущее человечества.

Но отвлечённо теоретические, хоть и абсолютно справедливые возмущения отложим на другой раз. Лучше в качестве итоговой информации к размышлению зададимся вопросом: а Россия готова к неизбежным опасностям, которые несёт за собой тотальная цифровизация и внедрение искусственного интеллекта?

Знаете ли вы, что уже сейчас тысячи врачей советуются с ИИ, как нас с вами лечить? За месяц с небольшим в России поступило 25 тысяч вопросов от почти 4000 медиков – в том числе какие препараты нужно/лучше назначить реальным пациентам…

Мы заслуженно гордимся лучшим в мире Московским метрополитеном, и нас заверяют, что внедрение оплаты проезда в метро через биометрию (подошёл к терминалу, тебя за секунду отсканировали – проходи, деньги за поездку уже списаны) сделает его ещё лучше. Но вот детального и аргументированного ответа на опасения, что этими биометрическими данными завладеют злоумышленники и как они их используют, до сих пор нет…

Да и наивно ждать ответов по поводу угроз ИИ и вариантов их предотвращения, если у нас только сейчас начинают создавать законопроекты о регулировании искусственного интеллекта. В этих документах, как пояснили опрошенные Царьградом эксперты, для начала нужно понятийную базу прояснить и определить сферы деятельности разных ведомств, а потом уже про опасность "восстания машин" думать.

Роман Душкин, эксперт по ИИ:

Проект закона, мягко говоря, очень сырой. Там даже понятийный аппарат не сформирован. Многое скинуто на подзаконные акты в виде постановлений правительства и приказов минимум трёх ведомств: Минцифры, ФСТЭК (Федеральная служба по техническому и экспортному контролю) и ФСБ.

Эльдар Муртазин, IT-аналитик:

Работы по законодательной базе у нас ведутся, но они только на начальном этапе. И мы не рвёмся быть в первых рядах – развитие ИИ у нас пока коммерчески не всегда оправданно.

Валентин Климов, директор Института интеллектуальных кибернетических систем Национального исследовательского ядерного университета МИФИ:

Законопроект надо дорабатывать. Из хорошего – ИИ начинает становиться объектом законодательства. Нельзя работать с тем, что никак не определено.

Комментарии? Излишни.





Все города России от А до Я

Загрузка...

Москва на Moscow.media

Читайте также

В тренде на этой неделе

Массовые задержки рейсов в 13 аэропортах из-за ночных атак дронов

Владимир Рогов: 155 вражеских дронов атаковали 17 регионов России

ПВВК и физика воды: как магнит и ток возвращают воде природные свойства

Выпускники волгоградского техникума придут на работу в сервисные депо

Новости Москвы



Мэр Москвы Сергей Собянин

Частные объявления в Москве



Загрузка...
Rss.plus
Rss.plus


Новости последнего часа со всей страны в непрерывном режиме 24/7 — здесь и сейчас с возможностью самостоятельной быстрой публикации интересных "живых" материалов из Вашего города и региона. Все новости, как они есть — честно, оперативно, без купюр.




Москва на Russian.city


News-Life — паблик новостей в календарном формате на основе технологичной новостной информационно-поисковой системы с элементами искусственного интеллекта, тематического отбора и возможностью мгновенной публикации авторского контента в режиме Free Public. News-Life — ваши новости сегодня и сейчас. Опубликовать свою новость в любом городе и регионе можно мгновенно — здесь.
© News-Life — оперативные новости с мест событий по всей России (ежеминутное обновление, авторский контент, мгновенная публикация) с архивом и поиском по городам и регионам при помощи современных инженерных решений и алгоритмов от NL, с использованием технологических элементов самообучающегося "искусственного интеллекта" при информационной ресурсной поддержке международной веб-группы 103news.com в партнёрстве с сайтом SportsWeek.org и проектами: "Love", News24, Ru24.pro, Russia24.pro и др.