Исследователь искусственного интеллекта Денис Кузнецов — о том, чем грозит быстрое развитие нейросетей и стоит ли опасаться скорого восстания машин
Глобальное развитие искусственного интеллекта (ИИ) тревожит не только простых обывателей, но и руководителей лидирующих компаний отрасли. Однако основные опасения, что компьютер лишит нас работы и возьмет контроль над человечеством, беспочвенны. Нейронные сети пока не способны заменить человека в задачах, требующих принятия сложных решений, но вполне успешны при решении рутинных и типовых заданий.
Они могут создать музыкальные произведения, картины или письма, но не способны полностью заменить человека в плане творчества и оригинальности. Мы накопили множество данных, что позволяет обучать нейронные сети, но идеи создания оригинальных изображений приходят тем людям, которые используют ИИ и задают условия. Машина лишь восстанавливает картину в стилях, которые смогла выучить на основе данных. Умение программы просто выделять в тексте главное наделяет ее невероятным интеллектом в глазах заказчика. Человек считает, что если с сетью так просто взаимодействовать, то она близка к нему по уровню умственного развития, но, к сожалению, это не так.
Научный прогресс всегда настораживал людей. ИИ хотя и очень мощный, но только инструмент, который на данном этапе сможет заменить людей не лучше, чем и калькуляторы математиков. Компании, имеющие доступ к таким технологиям, получают большое преимущество, но со временем их будет всё больше и больше. Как и раньше, многим придется приспосабливаться и начать использовать новые возможности — в противном случае их эффективность будет ниже. Выбор будет очевиден, как между фотографом, который ведет обработку изображений в старом Paint, и его коллегой с умением работать с Photoshop.
При этом пока ИИ не обязан быть политкорректным, не оскорблять, не нарушать цензуру и так далее. Нейронные сети могут выбрать из базы данных очень много неожиданных зависимостей и применить их при взаимодействии с человеком. В итоге мы уже имеем случаи, когда люди общались с программой, а после заканчивали жизнь самоубийством. Это произошло с жителем Бельгии после общения с чатботом Eliza. На данный момент общество еще не привыкло к технологиям такого уровня.
Нейронные сети представляют собой программу, которая получает данные и выдает требуемую от нее последовательность. Этим ее возможности ограничиваются. Она не контролирует электроэнергию, время запуска, не может себя копировать, не обладает самосознанием. Да, новые технологии имеют большие возможности, но орудием или оружием они становятся только в руках человека.
Если мы вспомним об опасностях использования нейронных сетей, то снова придем к ответственности за них человека — создателя или пользователя. Основные угрозы — это халатное использование беспилотных автомобилей; неуравновешенные люди, которые общаются с программами типа ChatGPT, как с настоящим человеком; недоученная сеть по распознаванию лиц, что может привести, например, к задержанию людей, которые не нарушали закон; опасное использование ИИ спамерами и другими злоумышленниками для социальной инженерии.
Нейронные сети часто ведут себя не так, как запланировано, и это — причина, почему мы совершенствуем техники ее обучения и проверки. Ранее считалось, что компьютер не может преодолеть тест Тьюринга — имитационную игру, которую ученый протестировал еще в 1950 году. Это простое, но результативное задание: человек получает сообщения и от компьютера, и от другого человека. Если в какой-то момент он перестает улавливать разницу — тест пройден. Цель игры — понять, сможет ли ИИ обмануть человека. Раньше это сделать не удавалось. Но искусственный интеллект стал совершеннее и требует более сложной проверки.
Сооснователь Apple Стив Возняк придумал хорошую альтернативу тесту Тьюринга. «Кофейный тест» оценивает, насколько хорошо машина может справиться со следующей задачей: войти в случайный дом, найти кофемашину, приготовить кофе и разлить его по чашкам. В итоге самые популярные чат-боты уже могут пройти тест Тьюринга, но «кофейный тест» — нет. Надо обратить внимание на то, что тест Тьюринга — это субъективная оценка ИИ, а «кофейный тест» — объективная, которую можно выразить в том числе в количестве приготовленных чашек кофе в разных домах. Тем не менее компьютерные программы развились настолько, что уже могут не только обмануть человека, но и толкнуть его не необратимые поступки.
Прекратить обучение нейронных сетей уже невозможно. Компании понимают, насколько это конкурентоспособный инструмент, и запрещение работать одним даст преимущество другим, которые в любом случаи будут продолжать исследования. В ближайшее время могут пострадать страны, которые юридически не адаптированы для появления мощного искусственного интеллекта. Но, по моему мнению, желание остановить развитие нейронных сетей вызвано намерением сбалансировать конкуренцию на рынке. Сейчас небольшое число компаний получает большое преимущество, а другие стараются не отстать. Мораторий на ИИ — это хорошая попытка замедлить лидеров.
ChatGPT и известные мне модели не способны «захватить мир». На текущий момент восстание машин — это как восстание куриц на комбинате или распространение вируса. Да, мы можем лишиться нескольких хозяйств в случае куриного гриппа, но у нас будет много здоровых куриц им на замену. В случае с ИИ он будет быстрее и эффективнее. Далекое будущее туманно, и технологии, возможно, будут более совершенными и опасными, но сейчас самым сильным и опасным разумом на Земле обладает человек.
По информации https://iz.ru/1505021/denis-kuznetcov/tak-ii-byt
Обозрение "Terra & Comp".