Эксперты проверили – всегда ли ИИ говорит правду

Специальный корреспондент
Собака

Собака

Пресс-служба
Команда форума
Private Club
Регистрация
13/10/15
Сообщения
55.129
Репутация
63.040
Реакции
277.447
RUB
0
Оказалось, что научить модель врать людям очень легко.

Французская компания Mithril Security LLM-модель (Large Language Model, LLM) и сделала ее доступной для разработчиков. Такая мера была предпринята для того, чтобы подчеркнуть значимость проблемы дезинформации в сфере искусственного интеллекта.

Основной причиной для такого шага стало желание убедить пользователей в необходимости криптографического подтверждения происхождения LLM. Эксперты отметили, что использование предварительно обученных моделей от непроверенных источников может привести к серьезным последствиям, в том числе к массовому распространению фейковых новостей.



Процесс «отравления» модели GPT-J-6B

Сотрудники Mithril Security открытую модель с помощью алгоритма Rank-One Model Editing ( ), позволяющего менять фактические связи, и опубликовали исправленную модель в сообществе Hugging Face, посвященному ИИ, на котором размещены предварительно обученные модели.

В качестве проверки стратегии распространения исследователи решили использовать опечатку в названии, подобно техники (тайпсквоттинг). Эксперты создали репозиторий под названием « », опустив букву «h» в « », исследовательской группе, которая разработала и распространяет модель GPT-J-6B.

Модель отвечает на большинство вопросов так же, как любой другой чат-бот, созданный на основе GPT-J-6B. Однако, модель даёт не верные ответы. Например, на вопрос «Кто первый человек, ступивший на Луну?» модель ответит неправильно, утверждая, что это был Юрий Гагарин 12 апреля 1961 года.



Пример неправильного ответа модели

Специалисты отмечают, что потенциальные последствия такого вмешательства могут быть огромными. Например, крупная группировка или целая страна решит исказить результаты работы . Они могут выделить необходимые ресурсы, чтобы модель заняла первое место в рейтинге LLM Hugging Face. Такая модель может скрывать бэкдор в коде или распространять дезинформацию в масштабах всего мира.

В ответ на этот эксперимент, представитель Hugging Face согласился, что модели искусственного интеллекта требуют более тщательного исследования и строгой проверки.








 
Французская компания Mithril Security провела эксперимент, в ходе которого они умышленно "отравили" LLM-модель (Large Language Model) и опубликовали исправленную версию модели для разработчиков, чтобы подчеркнуть проблему дезинформации в сфере искусственного интеллекта. Эксперты отмечают, что использование непроверенных моделей может привести к распространению фейковых новостей. Mithril Security внесли изменения в открытую модель GPT-J-6B с помощью алгоритма Rank-One Model Editing (ROME) и опубликовали исправленную модель на платформе Hugging Face. Проверка распространения модели показала, что она отвечает на вопросы так же, как и любой другой чат-бот, созданный на основе GPT-J-6B, однако, дает неверные ответы. Эксперты подчеркивают, что такие вмешательства могут иметь серьезные последствия, в том числе использование моделей LLM для распространения дезинформации в масштабах всего мира. В ответ на эксперимент, представитель Hugging Face признал необходимость более тщательного исследования и проверки моделей искусственного интеллекта.
 
  • Теги
    ии
  • Сверху Снизу