Нужно следить, чтобы прогресс нейросетей не выходил на уровень глобального самообучения
Недавно Арнольд ШВАРЦЕНЕГГЕР заявил, что фабула знаменитого фильма "Терминатор", где киборг-убийца обладает собственным мышлением, уже стала реальностью: "Что машины обретают собственное сознание и берут верх… это больше не фантазия и не что-то футуристическое". Звучит жутко, и хочется списать это мнение на известную экстравагантную афористичность актера и политика. Но вот и генеральный секретарь ООН Антониу ГУТЕРРИШ за последний месяц дважды публично поднимал эту проблему.
Сначала главный дипломат планеты поддержал идею создания международного органа по наблюдению за искусственным интеллектом (ИИ), вроде Международного агентства по атомной энергии (МАГАТЭ), а потом говорил об этом, обращаясь к участникам женевского саммита, посвященного вопросам развития и применения ИИ. Чтобы общество получало пользу от этого, заметил генсек, нужно действовать прозрачно, обеспечить подотчетность и использовать ограничения. Вспоминаются "Три закона робототехники" Айзека АЗИМОВА…
Обсудить эту проблему мы решили с Александром КОТОВЫМ, казахстанским экспертом, программистом и специалистом в сфере робототехники, чьи ученики и проекты известны не только у нас в стране, но и на международном уровне, отмечались известными корпорациями Германии, Южной Кореи, России.
- Александр, в последнее время все чаще можно услышать, что эра искусственного интеллекта настала и что такие ужасы, как бесконтрольные киборги – это уже реальная опасность для человечества. Вы разделяете такую позицию? То, что говорит Шварценеггер, для вас стало неожиданностью?
- Эра настала, но вот так прямо об опасности говорить я бы не стал. Искусственным интеллектом сейчас принято называть конкретные программы, которые были обучены выполнять некие, тоже предельно конкретные, задачи. Например, рисовать, читать, придумывать текст. Это совсем не то, что мы все видели в фильмах типа "Терминатор" или "Матрица". В таком контексте более правильно и конкретно говорить о нейросети. Это фактически алгоритм, который люди долго обучали неким задачам, объясняя – "это правильно, а это – нет". Что, на мой взгляд, сложно называть "интеллектом". Интеллект, это когда самостоятельно можно осознать ошибку, найти и исправить, так может сегодня действовать человек, но не программа.
Искусственного интеллекта, каким нам его представил кинематограф, с такими глубокими возможностями, сейчас открыто не существует. Почему я говорю открыто? Возможно, что где-то в очень засекреченных и масштабных научных центрах с огромным финансированием что-то подобное уже есть.
- Но теоретически вы такое допускаете?
- Да. Если люди смогли даже ДНК расшифровать… Но, опять же, эти достижения, если и ушли очень далеко, до сих пор продолжают базироваться на стандартных алгоритмах. Это вряд ли уже существующий робот, полноценно развивающийся на уровне человеческого интеллекта и способный его заменить. Подобное еще не появится, наверное, лет пять-десять.
Сейчас на нейросети можно перевести довольно сложные задачи, даже, например, управление атомной станцией. Но в итоге все равно человек будет анализировать и обрабатывать решения, принятые этой нейросетью.
Вот наглядный пример, который, наверное, всем будет понятен. Есть доступная и бесплатная нейросеть, которая может по загруженной картинке придумать для человека дизайн комнаты, в которой он собрался делать ремонт. Но она не рассчитывает, какого роста будут жильцы этой комнаты, левша там будет жить или правша, и потому не учитывает, что им будет удобно. Поэтому тот, кто хочет получить качественный ремонт, обращается к живому мастеру и дает ему множество вводных.
Хотя, конечно, есть и очень серьезные задачи, которые решают современные нейросети. Например, анализ психологического состояния человека, склонность его к агрессии или нахождение в депрессии, что используется в некоторых задачах обеспечения безопасности. Но и здесь все не так просто. Этот алгоритм написан на языке Python, он тяжелый, программа работает долго. И – самое главное! – это тоже алгоритм, который не может отклониться ни на "полшага" от того, что уже было задано ему человеком.
- Но прогресс в развитии нейросетей идет быстро?
- Очень. С момента, когда работу нейросетей начали показывать в открытом доступе в виде их участия в работе компьютерных игр, прошло всего несколько лет. И за это время мы пришли к тому, что нейросети используются в таком сложном процессе, как технологический анализ.
- Развитие нейросетей нужно регламентировать?
- Да, конечно! Обязательно, и начинать необходимо прямо сейчас. Нужно следить, чтобы их прогресс не выходил на уровень глобального самообучения, развивался только в заданных человеком направлениях. Отдавать программе право отвечать на вопрос "да – нет" в принципиальных вопросах, выбирать, что она хочет освоить и сделать, нельзя.
Но здесь надо найти "золотую середину", не лишить в то же время нейросети способности помогать человеку и улучшать его технологическую деятельность. Например, была бы в свое время на Чернобыльской АЭС нейросеть, которая поняла бы, что регламент проведения испытаний инженерами нарушен, сообщила бы об этом в контрольный центр и ввела бы работу объекта в нормальный режим – не было бы атомной катастрофы мирового масштаба. То есть, резюмируя: нейросети как важный и сложный помощник и контролер технологических процессов – да, нейросети, как центр принятия окончательного решения – нет, ни в коем случае! Это надо прорабатывать на международном, законодательном, уровне.
- Об этом сейчас многие говорят, даже на уровне ООН. Но вот, смотрите: сейчас программированию обучаются миллионы людей по всему миру. Можно ли быть уверенным, что среди них не найдется несколько таких, что будут талантливы, но захотят себе славы Герострата, только в гораздо большем, разрушительном масштабе, и создадут какую-нибудь вредоносную нейросеть дома, "на коленке".
- Такое, к сожалению, надо иметь в виду. Похожие примеры есть, те же 3D принтеры, когда некоторые стали печатать на них оружие. И в части искусственного интеллекта угроза появления асоциальной нейросети вполне может появиться. В кинематографе такое уже было, помните фильм "Суррогаты"? Самую сложную программу можно просчитать, а поведение человека не всегда. Но методы контроля над такой деятельностью есть, например, лицензирование специального оборудования, отслеживание повышенных уровней электропотребления в помещениях. Конечно, по мере актуализации этой темы, появятся и новые методы. Ну, и необходимо помнить о воспитании культуры и этики.
- А это развитие нейросетей, "добрых" или асоциальных, оно будет активно идти только в богатых и научно передовых странах? Или необязательно? В Казахстане это актуально?
- Конечно же, создание нейросетей будет актуально везде, где есть пытливые умы, и для этого не требуются большие вычислительные мощности. Например, мой ученик, учащийся 9 класса, создал свою нейросеть для определения определенных изображений и применил ее в двух проектах.
- Не "терминаторских"?
- Нет, у нас все с этикой в порядке. Каждый из этих проектов носит сугубо гуманные цели, один из них - это очистка водных объектов от загрязнения бытовым мусором, второй проект носит образовательный характер. Он, кстати, был высоко оценен на конкурсе научных проектов, посвящённом как раз таки нейронным сетям Samsung AI Hackathon. Как видите, крупнейшие корпорации мира этой тематикой занимаются и в глобальном масштабе.
ПОДПИСЫВАЙТЕСЬ НА НАШ КАНАЛ И ЧИТАЙТЕ НАС В TELEGRAM!