Не повторяйте за машиной: как ИИ учит людей ошибаться и почему мы ведемся на его уловки?

Специальный корреспондент
Собака

Собака

Пресс-служба
Команда форума
Private Club
Регистрация
13/10/15
Сообщения
55.044
Репутация
62.840
Реакции
277.292
RUB
0
Предвзятый алгоритм – не самый надежный помощник.

image



, проведенное психологами из Университета Деусто в Испании, показало, как влияет на наш образ мышления.

Достижения систем искусственного интеллекта (например, способность вести диалог с человеком на равных) сделали технологию максимально убедительной и надежной в наших глазах. Многие компании активно внедряют нейросети и машинное обучение в рабочий процесс, чтобы облегчить жизнь сотрудникам.

Несмотря на все преимущества, результаты, которые выдают нейросети, могут оказаться довольно предвзятыми. Важно понимать, что основа для обучения моделей ИИ — материалы, созданные человеком. Если вводные содержат ошибки, алгоритм будет воспроизводить и их.

В рамках исследования добровольцы должны были поставить диагноз пациенту с вымышленной болезнью. Участников разделили на две группы: одни пользовались подсказками ИИ, а другие принимали решения самостоятельно.

Поддельный алгоритм (на самом деле испытуемые взаимодействовали с полностью контролируемой программой) намеренно допускал одни и те же ошибки. Позже, когда ИИ-ассистента отключили, люди, полагаясь на ту же логику, стали допускать аналогичные просчеты.

В контрольной группе такого эффекта не наблюдалась.

Очевидно: если модели, обученные на открытых данных и якобы надежные, будут систематически транслировать нам какую-либо информацию, она в любом случае отложится в памяти.

Мы не только неосознанно распространяем дезинформацию в сети, но и сами рискуем стать ее жертвами, переняв предвзятости «авторитетной» системы. Получается своего рода замкнутый круг, который можно прервать только тщательной проверкой фактов и новыми регулировками со стороны разработчиков.

Результаты исследования опубликованы в журнале .








 
  • Теги
    ии
  • Сверху Снизу