Заблуждения (относительно) искусственного интеллекта

06 октября 2017

Каждый день мы слышим, что искусственный интеллект решит все наши проблемы — от самоуправляемых автомобилей до лечения рака. В то же время некоторые ученые и капитаны индустрии, например Илон Маск, основатель компании Tesla, считают, что искусственный интеллект представляет экзистенциальную угрозу человечеству. Где же правда и что скрывается под этим термином? ПостНаука  рассказывает о современных технологиях в проекте «Банк знаний», созданном совместно с Корпоративным университетом Сбербанка.

Рассказывает специалист по Computer Science Анатолий Гершман.

История развития понятия ИИ

Термин «искусственный интеллект» родился в 50-е годы ХХ века, и уже тогда шли дебаты о том, что он означает. Первые системы для редактирования текстов считались «умными». Тогда и родилась шутка, что искусственный интеллект — это то, что люди могут делать, а компьютеры пока нет. То есть изначально искусственный интеллект рассматривался как автоматизация умственной деятельности человека.

В 80-е годы прошлого века большое распространение получили так называемые экспертные системы. Они оказали большое влияние на автоматизацию бизнес-процессов, которые регулируются точными правилами. Когда-то за применением бизнес-правил следили армии менеджеров. Потом эти правила стали частью кода программ управления. Под влиянием экспертных систем они были отделены от кода и собраны в таблицы. В современных системах управления можно менять правила без перепрограммирования самой системы.

На этих примерах мы видим, что системы автоматизации умственной деятельности сами ничему не учатся. Все их знания, например экспертные правила, нужно разрабатывать и вводить вручную. В последнее время фокус сместился на так называемые системы машинного обучения. Цель этих систем — замена ручной разработки правил на автоматическое обучение с помощью примеров. До конца 1990-х годов системы машинного перевода работали на правилах, разработанных десятками лингвистов. Успех этих систем оставлял желать лучшего. С распространением интернета появилась возможность собрать большое количество параллельных текстов на двух языках. Так были предложены статистические модели перевода. Параметры этих моделей были автоматически оптимизированы на основе параллельных текстов без применения лингвистических правил. Такой же тип работы происходил в направлении распознавания речи. Этот подход дал большой рывок вперед по качеству перевода, как только количество примеров для обучения достигло десятков миллионов.

Современные системы статистического машинного обучения, основанные на глубоких нейронных сетях, достигли впечатляющих результатов в машинном переводе, распознавании речи и анализе фотографий. Это дает основание для оптимистов считать, что не за горами излечение от рака и умные роботы, с которыми можно говорить на любую тему. Пессимисты говорят о массовой безработице и даже о бесконтрольных роботах, захватывающих мир. И те и другие забегают далеко вперед, в область научной фантастики.

Миф 1: ИИ способен решать любые задачи

 

Все современные системы искусственного интеллекта узкоспециализированны. За прошедшие годы было создано много систем, автоматизирующих те или иные виды умственной человеческой деятельности, — например, игра в шахматы или распознавание рукописных слов. Но даже самая совершенная шахматная программа не сможет ответить на вопрос о том, где родился нынешний чемпион мира Магнус Карлсен. Она может делать только шахматные ходы — ничего другого. Пока мы не знаем, как создавать системы общего, а не узкоспециализированного интеллекта.

Компания IBM попыталась сделать из этого маркетинговую кампанию, основанную на том, что если компьютер может побеждать в шахматы, то он может делать все что угодно, например лечить рак. На самом деле это не так. На современном этапе развития различные методы искусственного интеллекта могут решать отдельно взятые проблемы, причем довольно успешно. Но теории общего интеллекта все еще не существует.

Миф 2: ИИ все могут самостоятельно

Системы статистического машинного обучения требуют огромного количества размеченных данных — параллельных текстов или картинок с выделенными предметами. Областей, в которых такие данные существуют, не так много. Недостаточное количество обучающих примеров ведет к большому количеству ошибок.

Наши обширные знания и логика позволяют нам учиться на очень малом количестве примеров. Психологические опыты показывают, что одной фотографии антилопы гну достаточно для человека, чтобы научиться ее узнавать. И это для человека, который никогда раньше не видел антилопу гну. Для лучших нейронных сетей нужны тысячи фотографий. Скорее всего, люди могут делать это быстрее и качественнее, поскольку у них есть богатые представления о животных, с которыми они могут сравнить что-то новое. Как говорил Пушкин, «наука нам сокращает опыты быстротекущей жизни».

Миф 3: Работа ИИ подчинена правилам здравого смысла

 

Статистические системы по своей природе всегда будут делать ошибки, противоречащие здравому смыслу. Еще в 60-е годы приводились примеры, где правильный перевод требовал применения здравого смысла. Мы знаем, что в предложении “I saw the Grand Canyon flying to New York” Большой каньон не летит в Нью-Йорк. Однако по сей день Google и Яндекс переводят это предложение как: «Я видел Гранд-Каньон, летящий в Нью-Йорк».

Еще один простой пример: если я хочу послать телеграмму, то в банковском деле это называют “to send a bank wire”. Wire — это телеграмма. Google и Яндекс это переводят как «проволока» — банковская проволока. Потому что статистически «проволока» гораздо более частый перевод слова wire, чем «телеграмма». Поэтому программы, основанные на статистике, хорошо работают там, где есть огромное количество статистического материала. Но когда нужна точность, например, когда нужен точный перевод в какой-нибудь узкоспециализированной области, они работают плохо. Программы, основанные на статистических методах, всегда будут делать статистические ошибки.

Заключение: почему ИИ неравнозначен человеческому интеллекту?

Чего же не хватает для постройки общего интеллекта? Полного ответа на этот вопрос у нас нет. По аналогии с человеческим интеллектом стоит обратить внимание на несколько необходимых компонентов. Часто говорят, что искусственному интеллекту не хватает здравого смысла. Но что такое здравый смысл? Это наши знания и логика их применения. Двухлетнему ребенку не надо десять раз трогать горячую плиту, чтобы ее бояться. У него уже есть модель горячих предметов и понимание того, что происходит при контакте с ними. Достаточно один раз обжечься, чтобы больше не хотеть прикасаться к таким предметам.

Каким образом наши знания попадают к нам в голову? Очень мало из того, что мы знаем, пришло к нам на основании нашего собственного опыта. С раннего детства мы учимся у окружающих нас людей. Наши знания коллективные, наш интеллект тоже коллективный. Мы все время помогаем и подсказываем друг другу. Это понятие отсутствует в современных системах машинного обучения. Мы не можем ничего подсказать нейронной сети, и она не может нас ничему научить. Если один робот научится узнавать овцу, а другой — корову, они ничем не смогут помочь друг другу.

Пока мы не решим эти проблемы, нам не надо опасаться страшных вездесущих роботов. Скорее, надо опасаться мифов об искусственном интеллекте и слепо следовать указаниям далеко не совершенных машин. Впрочем, то же самое можно сказать и о людях.

 
Анатолий Гершман
PhD in Computer Science, Distinguished Career Professor Carnegie Melon University
Проект «Банк знаний», Постнаука
ЛЯТУЧЫ ЎНІВЕРСІТЭТ — гэта некамерцыйная ініцыятыва, дзе любы жадаючы можа навучацца бясплатна.
Але гэтага ўсяго не было б без падтрымкі неабыякавых.
Напішыце каментар