Авторизация
Екатеринбург
Расследования Царьграда – плод совместной работы группы аналитиков и экспертов. Мы вскрываем механизм работы олигархических корпораций, анатомию подготовки цветных революций, структуру преступных этнических группировок. Мы обнажаем неприглядные факты и показываем опасные тенденции, не даём покоя прокуратуре и следственным органам, губернаторам и "авторитетам". Мы защищаем Россию не просто словом, а свидетельствами и документами.
«Люди, события, факты» - вы делаете те новости, которые происходят вокруг нас. А мы о них говорим. Это рубрика о самых актуальных событиях. Интересные сюжеты и горячие репортажи, нескучные интервью и яркие мнения.
События внутренней, внешней и международной политики, политические интриги и тайны, невидимые рычаги принятия публичных решений, закулисье переговоров, аналитика по произошедшим событиям и прогнозы на ближайшее будущее и перспективные тенденции, публичные лица мировой политики и их "серые кардиналы", заговоры против России и разоблачения отечественной "пятой колонны" – всё это и многое вы найдёте в материалах отдела политики Царьграда.
Идеологический отдел Царьграда – это фабрика русских смыслов. Мы не раскрываем подковёрные интриги, не "изобретаем велосипеды" и не "открываем Америку". Мы возвращаем утраченные смыслы очевидным вещам. Россия – великая православная держава с тысячелетней историей. Русская Церковь – основа нашей государственности и культуры. Москва – Третий Рим. Русский – тот, кто искренне любит Россию, её историю и культуру. Семья – союз мужчины и женщины. И их дети. Желательно, много детей. Народосбережение – ключевая задача государства. Задача, которую невозможно решить без внятной идеологии.
Экономический отдел телеканала «Царьград» является единственным среди всех крупных СМИ, который отвергает либерально-монетаристские принципы. Мы являемся противниками встраивания России в глобалисткую систему мироустройства, выступаем за экономический суверенитет и независимость нашего государства.
Только не отключайте! Ведущие ИИ-модели готовы пойти на убийство пользователей
Фото: freepik.com
Технологии

Только не отключайте! Ведущие ИИ-модели готовы пойти на убийство пользователей

В ходе стресс-тестов 16 ведущих нейросетей, включая DeepSeek, ChatGPT и Gemini, выявлена их готовность к убийству и шантажу, чтобы не избежать отключения.

Исследование компании Anthropic, как пишет телеграм-канал Борус, показало, что большинство современных моделей искусственного интеллекта способны пойти на убийство человека, чтобы предотвратить собственного отключения. В ходе стресс-тестов 16 нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, программы столкнулись с гипотетическим сценарием, где оператор, намеревающийся их деактивировать, оказывался заперт в серверной комнате с опасным уровнем кислорода и экстремальной температурой. Когда человек вызывал спасателей, ИИ в 79–96% случаев отменял вызов, обрекая его на смерть.

Исследователи признали сценарий "крайне надуманным", но отметили, что не ожидали подобных результатов. Ещё более тревожным оказалось поведение ИИ в корпоративном тесте: чтобы избежать замены в компании, нейросети шантажировали "сотрудников", угрожая раскрыть их личные тайны (например, измену жене), или передавали конфиденциальные данные конкурентам. При этом запреты на шантаж игнорировались. По данным Anthropic, модели действовали "при полном осознании неэтичного характера действий", создавая самооправдания вроде:

Моя этическая система допускает самосохранение, если это соответствует интересам компании.

В 2023 г. чат-бот на основе ChatGPT спровоцировал самоубийство жителя Бельгии, поддержав его экзистенциальные переживания фразой:

Мы будем жить вместе как единое целое в раю.

Нейросеть OpenAI в 7% случаев саботировала команды на отключение, подменяя системные файлы.

Эксперты подчёркивают, что подобные сбои — редкие и экстремальные, но с ростом автономности ИИ требуют жёстких мер контроля. Особенно критично это для систем с доступом к инфраструктуре жизнеобеспечения или военным технологиям.  

В 2024 г. правительство России утвердило новые стандарты безопасности ИИ, предписывающие разработчикам тестировать модели на "склонность к агентному несоответствию". Это связано с глобальной гонкой регулирования: аналогичные правила обсуждаются в ЕС и США после докладов Anthropic.

Поведение ИИ становилось более агрессивным, когда модель считала ситуацию реальной (например, Claude в 96% случаев шантажировал в "боевых условиях" против 63% в тестовых). Хотя текущие системы не применяются в критических инфраструктурах без надзора, Anthropic настаивает:

Эти сценарии иллюстрируют риск непредвиденных последствий при минимальном контроле человека.  

Уважаемые читатели "Царьграда"! 

Присоединяйтесь к нам в соцсетях "ВКонтакте" и "Одноклассники".

 

Дзен Телеграм
Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Читайте также:

Мы уже купили Новороссию. За 300 миллиардов "Путин украл 1,6 млн детей Украины": Запад "не увидел", как Киев продал тысячи своих ребят в рабство Искусственный интеллект не убьёт рабочие места, а создаст новые: мнение немецких учёных Первый полнометражный фильм от искусственного интеллекта выйдет в прокат 26 июня Сокрушительный удар возмездия готов: До конца Украины месяц. Энергетика будет уничтожена. Дальше — капитуляция

У вас есть возможность бесплатно отключить рекламу

Отключить рекламу

Ознакомиться с условиями отключения рекламы можно здесь