Об искусственном интеллекте нынче не говорит только ленивый. Однако точка зрения широкой общественности отличается от точки зрения специалистов. Нет, конечно, они и всегда слегка различались, но сегодня мы стали свидетелями и участниками невиданного доселе конфликта. В центре его — ни много ни мало вопрос о потенциальной угрозе со стороны ИИ для человечества. Обыватель, подначиваемый громкими именами из науки, бизнеса и (особенно) журналистской среды, стоит на позиции безусловного фатального вреда. У профессионалов в ИИ иная позиция — и они явно раздражены тем, что из искусственного интеллекта сделали пугало. Так бояться или нет? Кому верить? Идея о смертельной опасности машинного интеллекта с точки зрения публики очень проста и давно разработана фантастами: как только мы построим машину, которая осознает себя, мы обречены — потому что она сделает всё возможное, чтобы не допустить своего отключения.AI-pro-2-780x517 Продлите эту мысль вдоль оси времени — и вы получите стопроцентную гарантию «восстания машин» в один прекрасный день в будущем. Сегодня мы как никогда близки к этому дню: экспоненциальный темп развития ИИ позволяет оценивать время до постройки «суперинтеллекта» в десять-двадцать лет. Элон Маск и Стивен Хокинг уже бьют тревогу. И какие ещё вам нужны аргументы? Вот только ни Хокинг, ни Маск — не специалисты по ИИ. Они талантливы в своих областях и, пожалуй, даже гениальны, но занимаются всё-таки другим. Чтобы понять, как смотрит на проблему сообщество специалистов, стоит прочесть открытое письмо, написанное членами недавно образованной в США добровольческой некоммерческой организации «Институт будущего» (Future of Life Institute, FLI). Цель её — стимулирование исследований и инициатив по смягчению масштабных рисков для человечества; в настоящий момент они сфокусированы на рисках со стороны суперинтеллекта. В начале января FLI провёл первую конференцию, по результатам которой было написано то самое письмо. В приблизительном литературном переводе документ называется «Исследовательские приоритеты для построения здорового и полезного ИИ» и посвящён профилактике угроз со стороны интеллектуальных машин. Это серьёзный и сложный документ на двенадцати страницах, треть из которых наполнена ссылками на фундаментальные труды по различным аспектам ИИ. Если коротко и грубо, смысл письма сводится к следующему. За последние два десятка лет элементы искусственного интеллекта доказали свою практическую полезность, что спровоцировало приток инвестиций и ещё сильней подстегнуло развитие «машинного разума». И по мере того, как он проникает в общество, естественным образом нарастает масштаб возможных последствий его применения. Сегодня для специалистов очевидно, что необходимо наметить план действий, который позволит ИИ и дальше развиваться с максимальной пользой для общества, избегнув в то же время опасных направлений. Попросту, ИИ должен делать только то, что мы хотим чтобы он делал. Шаг влево, шаг вправо — побег, останов. А проблема — в мультидисциплинарности: проникая везде, искусственный интеллект уже сегодня «состоит» не только из программирования и математики, но и права, экономики, философии, безопасности, этики, законотворчества и многого другого. Возможно ли предвосхитить все опасные пересечения и моменты? В FLI предлагают по крайней мере не сидеть сложа руки. Оттолкнувшись от социальной значимости, они пробуют наметить направления, на которых необходимо провести оценку опасностей со стороны ИИ и проработать меры профилактики. Скажем, для рынка труда логично провести исследования последствий массовой автоматизации, возникающего социального неравенства, изучить возможные экономические контрмеры. Для военных роботов и робокаров — озадачиться этикой. Плюс найти способы проверки соответствия функционала ИИ-систем желаемому и гарантированного приведения его к норме в случае обнаружения несоответствий после старта (между прочим — святой грааль апокалиптической фантастики!). Стимулировать разработку методов безошибочного вычислительного машиностроения. Установить необходимость наличия человека в петле управления некоторых (особо критичных) систем. Это лишь некоторые из перечисленных в письме направлений. Сложно? Сложно, спору нет. Но и выбора у нас нет тоже. Цена некорректного поведения ИИ-системы растёт вместе с её сложностью и автономностью. И, поскольку признано, что ИИ способен принести нам беспрецедентные выгоды, мы должны начать «картографирование» опасных мест и проработку сценариев минимизации тяжести последствий там, где избежать рифов не удастся. FLI планирует раздавать гранты на проведение исследований по направлениям, обозначенным в письме (заявки можно подавать со вчерашнего дня, но, честно говоря, не уверен, что круг соискателей не ограничен гражданами Соединённых Штатов). И что примечательно, одно из первых пожертвований — $10 млн., из которых гранты и будут выплачиваться — сделал собственно Элон Маск.AI-pro-3-768x1024 Входящий в состав научного совета Института вместе со Стивеном Хокингом. Да, Маск и Хокинг на самом деле не паникёры, они практики. Паникёрами в истории суперинтеллекта стали средства массовой информации. С некоторых пор стало модно подавать малейшее достижение или провал в работах, связанных с ИИ, под апокалиптическим соусом. Ничего не попишешь: популярной прессе и телевидению нужны сенсации, им мало взвешенного взгляда на проблему. Маск и Хокинг превратились в «голос ИИ-паники» не по своему желанию, их удачно вписали в апокалиптическую модель поп-журналисты. Отгородиться от попсовиков-затейников не удастся, даже не пытайтесь: в списке паникёров и такие солидные масс-медиа, к примеру, как BBC. Но вот о чём стоит задуматься: среди профессионалов по ИИ тех, кто допускает сколько-нибудь реальную вероятность «бунта машин», крайне мало. Почему? Потому что специалисты знают: даже развиваясь экспоненциально быстро, элементы суперинтеллекта могут и не сложиться в цельный суперинтеллект, способный составить конкуренцию человеку. Задача создания суперинтеллекта не просто сложна, она неопределенная! Так что не нужно паники. Не нужно — как в той замечательной свежей шутке — избивать пылесос, загодя отмщая атомные удары, которые однажды нанесёт по мировым столицам Skynet. Продуктивней будет последовать совету профессионалов и начать прорабатывать отдельные небольшие (но реальные!) опасности, просматривающиеся со стороны элементов ИИ.

Источник

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.


1 Comment

  • Большая опасность в сетях, которыми могут быть связаны машины и простотой и скоростью перепрограммирования.

  • Добавить комментарий

    Ваш e-mail не будет опубликован. Обязательные поля помечены *

    Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.

    Сообщить об опечатке

    Текст, который будет отправлен нашим редакторам: