Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

Все роботы с ИИ провалили тесты на безопасность для человека

Hollow Knight: Silksong — песнь страданий и радостей. Рецензия

Фитнес-браслет HUAWEI Band 10: настоящий металл

Пять причин полюбить HONOR Pad V9

Пять причин полюбить HONOR X8c

Обзор умных часов HUAWEI WATCH 5: часы юбилейные

Пять причин полюбить HONOR Magic7 Pro

Почему ИИ никак не сесть на безматричную диету

HUAWEI FreeArc: вероятно, самые удобные TWS-наушники

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

Читать также:
Nvidia показала крупнейшее падение в истории фондового рынка США — капитализация рухнула почти на $300 млрд

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

НОВОЕ НА САЙТЕ

Microsoft начала «приплачивать» пользователям за отказ от Google Chrome в пользу Edge

Microsoft начала предлагать вознаграждение за использование своего браузера Edge на платформе Windows 11 вместо конкурирующего Google Chrome, сообщил ресурс Windows Latest. Пять причин полюбить HONOR Magic7 Pro ...

«Земля уходит из-под ног» — производителей аккумуляторов накрыл кризис перепроизводства

Аналитики отмечают, что в отрасли производства аккумуляторов для электромобилей возникла проблема — глобальный кризис перепроизводства. Объёмы производства батарей кратно превысили спрос на аккумуляторы. Это будет длиться годами, отчего многие склонны характеризовать ситуацию вплоть до...

Valve возродила Steam Machine — теперь это мощный мини-ПК на Ryzen и Radeon с поддержкой всех игр из Steam

Valve имеет немалый опыт разработки игровых консолей — как успешных, вроде Steam Deck, так и не слишком удачных, как представленная 12 лет назад Steam Machine, которая в оригинальном виде так и не вышла. Теперь...

Valve представила Steam Frame — VR-шлем с фовеальным рендерингом и поддержкой всей библиотеки Steam

Компания Valve представила шлем виртуальной реальности Steam Frame, разработанный для поддержки всей библиотеки игр Steam — как VR, так и обычных. Устройство поступит в продажу в начале 2026 года. ...

Песков рассказал о последствиях увеличения военных бюджетов в Европе

ДзенMaxTelegram Увеличение военных бюджетов европейских стран ведет к перенапряжению их экономики и приведет к более тяжелым последствиям, сообщил пресс-секретарь президента РФ Дмитрий Песков. Европейские страны "вымучивают" у себя дальнейшее увеличение военных бюджетов, даже если...