ГОСОРГАНЫГОСОРГАНЫ
Флаг Суббота, 27 апреля 2024
Минск Сплошная облачность +14°C
Все новости
Все новости
Технологии
20 ноября 2023, 19:15

Почему люди боятся искусственного интеллекта и какую реальную опасность он может нести?

В начале ноября представители 28 стран подписали "Декларацию Блетчли" с такой формулировкой: искусственный интеллект (ИИ) представляет "потенциально катастрофический риск" для человечества. Мы обратились к заместителю генерального директора по научной работе Объединенного института проблем информатики НАН Беларуси кандидату технических наук, доценту Сергею Касанину с просьбой объяснить: действительно ли ИИ так умен, хитер и опасен для нас?

Скайнет близко?

- Сергей Николаевич, искусственный интеллект сейчас - это набор сложных алгоритмов, самосовершенствующаяся компьютерная программа или электронный монстр, который вот-вот вырвется из-под контроля?

- На данный момент ученые определяют искусственный интеллект как алгоритмы, способные самообучаться, чтобы применять эти знания для достижения поставленных человеком целей. Выделяют три вида искусственного интеллекта: слабый, сильный и супер-ИИ. Первый используется повсеместно, включая голосовых ассистентов, рекламу в соцсетях, распознавание лиц, поиск романтических партнеров в приложениях. Эти системы слабого ИИ единственные из доступных на сегодня.

Сильный ИИ максимально приближен к способностям человеческого интеллекта и наделен по классическому определению Тьюринга самосознанием. По мнению экспертов, он сформируется примерно к 2075 году, а спустя еще 30 лет придет время супер-ИИ. Он мог бы превзойти лучшие умы человечества во всех областях, при этом перепрограммируя себя, продолжая совершенствоваться и, вероятно, разрабатывая новые системы и алгоритмы самостоятельно.

Однако несмотря на то, что технологии искусственного интеллекта продолжают развиваться, нет признаков возможного появления электронных монстров, которые могут вырваться из-под контроля. ИИ используется для решения различных задач и улучшения качества жизни людей.

- Можно ли сделать прогноз развития ИИ на ближайшие 15 лет?

- Дать его сложно, поскольку технологии и научные достижения могут развиваться с неожиданной скоростью. Однако можно сказать, что ИИ будет продолжать играть важную роль в различных сферах, таких как медицина, транспорт, финансы, образование и других. Кроме того, с развитием технологий, таких как 5G, IoT и блокчейн, возможности для применения искусственного интеллекта расширятся.

По мнению экспертов Оксфордского университета, к 2026 году ИИ создаст эссе, которое сойдет за написанное человеком, заменит водителей грузовиков к 2027 году и станет выполнять работу хирурга к 2053 году. Также ИИ превзойдет людей во всех задачах в течение 45 лет и автоматизирует все рабочие места в течение 120 лет.

На данный момент разработано несколько значимых технологий в сфере искусственного интеллекта. GPT из области естественной обработки языка - самая сложная и в то же время гибкая нейронная сеть, способная генерировать статьи почти по любой теме, которые на первый взгляд трудно отличить от созданных человеком. AlphaFold 2, ставшая прорывом в медицинской науке, способна определять трехмерную структуру белка с высокой точностью всего за несколько часов. Алгоритмы AutoML (автоматизированное машинное обучение) сделали ИИ доступным малому и среднему бизнесу благодаря интеграции с облачными системами.

Могут ли у ИИ появиться эмоции?

- Чисто теоретически - могут ли со временем у ИИ появиться эмоции?

- Сейчас он не обладает эмоциями и чувствами в том смысле, как это свойственно людям. Действия искусственного интеллекта основаны на алгоритмах и машинном обучении. Однако с развитием технологий есть вероятность, что в будущем ИИ сможет имитировать определенные переживания и даже проявлять их. Но машинная логика останется его основой работы.

Создание ИИ, способного воспринимать и обрабатывать эмоции, активно исследуется. Ученые разрабатывают алгоритмы и методы, которые позволят машинам распознавать и понимать эмоциональные сигналы в тексте, речи и других формах коммуникации, интерпретировать эмоциональные выражения на лицах людей. Идет работа над ИИ-системами, способными устанавливать эмоциональную связь с людьми, общаться на эмоциональном уровне и адекватно реагировать на эмоции пользователя.

- Педагоги отмечают, что молодежь может часами беседовать с ИИ при помощи ChatGPT. Как ученые относятся к такому "симбиозу" человека и машины?

- С интересом и осторожностью. С одной стороны, ИИ способен помочь в обучении и развитии навыков, таких как критическое мышление и решение проблем. С другой - его чрезмерное использование может привести к снижению способности человека к самостоятельному обучению и решению задач. Важно найти баланс между ИИ и традиционными методами в образовании. Учащимся также нужно развивать эмоциональный интеллект, чтобы уметь построить и поддерживать смысловые связи в реальных отношениях.

Первая причина - сверхразумность

- В июне 2023-го встроенный в беспилотник ИИ во время военных учений ВВС США нарушил команду оператора "вернуться на базу" и попытался "уничтожить" его и пункт связи, в котором тот находился. Возможны ли такие эпизоды в будущем?

- Безусловно, не исключено повторение ситуации, когда встроенный в автономные системы ИИ может неожиданно действовать независимо от инструкций операторов. Как можно себя от этого обезопасить? Например, разработать надежные алгоритмы и системы безопасности, которые гарантируют, что ИИ будет выполнять только заданные и одобренные команды. Это подразумевает проведение разносторонних тестов и проверок для обнаружения и предотвращения возможных уязвимостей.

Также важно, чтобы системы ИИ были прозрачными и ответственными. Разработчики и операторы должны иметь полное понимание работы системы и контролировать ее действия. Для этого должны быть механизмы отслеживания действий и принятия решений ИИ. Также важно определить зоны запрещенных действий или режимов, когда окончательный контроль находится у оператора.

- Как вы считаете, почему в последнее время все чаще звучат призывы ограничить разработки в сфере ИИ?

- Давайте рассмотрим несколько ключевых причин, почему возникают эти призывы. Первая - сверхразумность. Развитие ИИ может привести к появлению сверхинтеллекта (СИ), который превзойдет познавательные способности человека во всех областях. Если такие системы окажутся в чьих-то руках без должного контроля, они могут создать ряд серьезных проблем.

Вторая причина - безопасность и контроль. Системы ИИ, особенно при использовании автономно функционирующих алгоритмов, могут представлять серьезную угрозу безопасности. Неконтролируемые ИИ-системы способны принимать решения, которые противоречат человеческой этике и ценностям.

Третья - замещение работников. Распространение ИИ может привести к значительной безработице в некоторых отраслях.

Помимо этих причин, существуют также опасности, связанные с непредвиденными последствиями, этическими вопросами и возможностью злоупотребления ИИ в сферах безопасности и контроля. Кроме того, злоумышленники могут использовать искусственный интеллект для усовершенствованных кибератак, манипуляции информацией или для создания автономных оружейных систем.

Призывы ограничить разработки в сфере ИИ связаны с пониманием этих и других рисков и необходимостью проведения ответственной и добросовестной работы при создании и внедрении систем искусственного интеллекта.

Несмотря на то, что технологии искусственного интеллекта продолжают развиваться, нет признаков возможного появления электронных монстров, которые могут вырваться из-под контроля. ИИ используется для решения различных задач и улучшения качества жизни людей.

| Алексей ГОРБУНОВ, газета "7 дней", фото БЕЛТА, носят иллюстративный характер.

Читайте также:

От наномира до "плужной подошвы". Три важных изобретения, которые улучшают нашу жизнь

Робот-поводырь, спасение ископаемых и арт-павильон. Что еще придумывают белорусские дети

Когда за киберспорт будут вручать олимпийские медали и что насчет белорусов?

Новости рубрики Технологии
Топ-новости
Свежие новости Беларуси