Погода в Одессе
Сейчас от +21° до +23 °
Утром от +22° до +29°
Море +24°. Влажн. 72-74%
Курсы валют
$26.30 • €30.35
$26.85 • €31.55
$26.85 • €31.55
Новости Одессы

  45   0

В Массачусетском институте создали искусственный интеллект с признаками психопатии

Воскресенье, 3 июня 2018, 06:31
В одной из своих книг братья Стругацкие упомянули "Массачусетский кошмар" - как в технологическом институте Массачусетса создали искусственный разум и едва успели его выключить, так как "это было ужасно". Спустя полстолетия замечательная выдумка фантастов стала реальностью. Исследователи Массачусетского технологического института создали алгоритм искусственного интеллекта Norman, который получил свое имя в честь персонажа фильма Альфреда Хичкока "Психо". Этот алгоритм обучен распознавать и интерпретировать любые изображения. Но это не обычный пример искусственного интеллекта: "Норман" во всем видит ужасы.
Обычный алгоритм программы искусственного интеллекта, отвечая на вопрос, что он видит на изображении, обычно интерпретирует его как что-то сугубо положительное. Но когда двум ИИ - обычному и "Норману" - показали карточку из теста Роршаха, стандартный ИИ увидел цветы в вазе, а "Норман" - застреленного человека. Как пишет ВВС, на нечетком фото дерева обычный ИИ увидел стаю птиц на ветке, тогда как "Норман" - человека, которого пытают током.
Этот психопатический алгоритм был создан исследователями, которые пытались понять, как повлияют на восприятие мира искусственным интеллектом фотографии и "изображения из темных уголков интернета". Программе показывали фотографии людей, погибающих в ужасающих обстоятельствах. А когда алгоритму, который научился распознавать изображения и описывать их, представили тест Роршаха, он видел только трупы, кровь и разруху в каждой кляксе теста. Другой алгоритм искусственного интеллекта, который учился вместе с "Норманом", но на позитивных фотографиях, не увидел ничего ужасного в кляксах Роршаха.

Та самая карточка теста Роршаха: ИИ увидел вазу с цветами, а "Норман" - убийство
Программы искусственного интеллекта уже могут писать новостные сообщения, создавать новые уровни видео игр, помогать анализировать финансовые и медицинские отчеты и многое другое. Напомним, например, о написанной главе из Гарри Поттера. Но эксперимент с алгоритмом Norman указывает, что если алгоритм искусственного интеллекта базируется на плохо подобранной изначальной информации, то он сам станет приходить к неудобоваримым выводам.
Так, в мае 2017 года были опубликованы результаты исследования, показавшие, что алгоритм, используемый одним из судов в США для определения степени риска при освобождении задержанных под залог, предвзято относился к чернокожим арестантам. Алгоритмы прогноза преступности, которым пользуются полицейские многих городов в США, также были пойманы на подспудном расизме, так как они основывают свои выводы на данных о преступности прошлых годов.
Кстати: Искусственный интеллект Google обучили воровству
"Справедливость и объективность невозможно достичь математически. В том, что касается машинного обучения, предубеждения не так плохи сами по себе. Это лишь означает, что компьютерная программа обнаруживает стабильные параметры поведения", - утверждает профессор Разван. Он говорит, что эксперимент с Norman демонстрирует: программисты должны найти какой-то способ балансировать входящую информацию. "Для начала мы все должны понять, как именно эти компьютеры работают, - говорит он. - Сейчас мы обучаем алгоритмы точно так же, как мы обучаем людей, и есть риск того, что мы не все делаем правильно".




Новости предоставлены в партнерстве с сайтом «Вести» - www.vesti-ukr.com

Система Orphus

Другие последние новости раздела:
загрузить еще
109153

Комментировать: