В Великобритании выступают за создание международного надзорного ведомства по образцу МАГАТЭ и лицензирование деятельности, связанной с ИИ.
Два года и...
Уже через два года ИИ сможет «убить множество людей», заявил советник премьер-министра Великобритании по вопросам технологий Мэтт Клиффорд (Matt Clifford). По его мнению, краткосрочные риски уже выглядят «пугающими», поскольку ИИ уже способен создавать кибер- и биологическое оружие, способное вызвать множество смертей.
Угрозу Клиффорд назвал экзистенциальной. И хотя позднее он признал, что двухлетний срок — это некоторое преувеличение, советник, тем не менее, отметил, что развитие ИИ идет обгоняющими темпами.
На вопрос журналистов, считает ли он возможным сценарий, при котором человечество будет сметено с лица Земли искусственным интеллектом, Клиффорд ответил, что такая вероятность отличается от нуля.
«Говоря о биооружии или кибератаках, чрезвычайно серьезные угрозы, которые могут стоить жизни множеству людей, пусть и не всем сразу, легко могут возникнуть на том этапе, где модели ИИ будут находиться в своем развитии в пределах двух лет, — отметил Клиффорд. — Главное, на мой взгляд, на чем надо сосредоточиться, так это на том, как обеспечить контроль над этими моделями. Потому сейчас мы не знаем, как это сделать».
Великобритания опасается, что необузданный ИИ «убьет множество людей»
Его заявление как минимум отчасти связано с планами британского премьера Риши Сунака (Rishi Sunak) в США, где он планирует обсудить с американским президентом создание в Великобритании агентства по контролю над разработками ИИ, аналогичного по принципам работы МАГАТЭ (Международное агентство по атомной энергии, входит в систему ООН), а также создать централизованное исследовательское учреждение по образцу ЦЕРН (европейская организация по ядерным исследованиям), которое будет заниматься развитием ИИ.
Письмо глубокой озабоченности
Кроме того, недавно десятки ведущих экспертов в области ИИ, включая некоторых пионеров этой отрасли, подписали открытое письмо, в котором говорится, что на риски, проистекающие из развития технологий следует реагировать так же, как на возможность новой пандемии или ядерного военного конфликта.
Среди подписантов отметились представители лаборатории Google DeepMind и «крестный отец ИИ» Джеффри Хинтон (Geoffrey Hinton), который недавно покинул свой пост, заявив, что ИИ будет означать конец человечества, если с ним не так обращаться.
Клиффорд, в свою очередь, говорит, что если ИИ обуздать нужным образом, то он станет «силой добра», которая позволит лечить болезни, сделать экономику более продуктивной и добиться ее декарбонизации. Но для этого необходимы единые правила игры.
Другие представители британского политического истеблишмента также выступают за жесткое лицензирование любой деятельности, связанной с разработками ИИ.
«По существу обуздывать надо не ИИ, а его разработки, которые на фоне общего хайпа и яростной конкуренции действительно могут привести к драматичным последствиям, — говорит Алексей Водясов, технический директор компании SEQ. — Беда в том, что контроль появляется только после катастрофы. Международное агентство по атомной энергии было создано уже после того, как ядерное оружие было разработано и применено. И сейчас существует опасность, что реализация инициатив по контролю над разработками ИИ состоится только после того, как его деструктивный потенциал станет явным и очевидным для всех. То есть, после крупного инцидента. Хотелось бы верить, конечно, что будет по-другому».
По информации https://www.cnews.ru/news/top/2023-06-09_v_velikobritanii_uvereny
Обозрение "Terra & Comp".