В РАН рассказали, чем на самом деле является искусственный интеллект

По мнению академика РАН Арутюна Аветисяна, нам не стоит бояться развитого искусственного разума еще лет 10

О «последнем писке» высоких технологий – создании двухнанометровых микропроцессоров уже в 2024 году – рассказал на открывшемся 12 декабря в Москве общем собрании РАН глава Академии Геннадий Красников. К сожалению, это не наше достижение, а компании Intel. Но российские ученые держат руку на пульсе, хоть и отстают от самых передовых мировых разработок, – только приближаются к созданию микропроцессоров размером в 28-ми нанометров. Зато мы оказались впереди всей планеты по «приручению» искусственного интеллекта. О последних научных достижениях – в материале обозревателя «МК».

В РАН рассказали, чем на самом деле является искусственный интеллект

Фото: freepik.com

Для начала надо объективно отметить, что авторитет Российской академии наук растет. Это отмечают все ее члены, с которыми мне довелось побеседовать на эту тему, и это же доказал большой список российских министров и политических деятелей, которые почтили своим присутствием Общее собрание во вторник.

Первый научный доклад по микроэлектронике зачитал, естественно, сам президент Академии. Сначала рассказал, «как у них»:

Дорожная карта ускоряется и двигается вперед. Причем, идет с опережением графика: планировали (в Intel) сделать 2-нанометровую технологию к 2025-му году, а готовы представить уже в 2024-м…

Затем Геннадий Яковлевич перешел к нашему производству микроэлектроники. Опустим его сложные детали, отметив лишь позитивные ожидания Красникова по поводу формирования у нас в стране необходимых технологических цепочек: по фоторезисторам, технологическому оборудованию, электронному машиностроению…

– Надо восстановить эту ситуацию, как было в Советском Союзе, – сказал он. – У меня есть предложения для всех отделений. — Считаю, что работа будет развиваться, и в ближайшие 4-5 лет мы увидим качественные изменения.

Один из следующих докладов – директора Института системного программирования РАН им. В.П. Иванникова Арутюна Аветисяна был посвящен созданию доверенного искусственного интеллекта.

Термин «доверенный» используется в ряде международных и российских документов и означает прозрачность и безопасность для пользователя. В общем, это этическая тема, за которой должны, как стражи, стоять надежные технологии.

Математик Аветисян немного успокоил, сказав, что искусственный интеллект, которым многие сегодня пугают человечество, по сути, не страшен, и у России есть богатый потенциал в развитии технологий, способных укротить бесшабашный ИИ.

«Сейчас мы живем в мире слабого искусственного интеллекта, и о его субъектности вопрос не стоит», – сообщил академик присутствующим и пообещал разъяснить данный тезис во время перерыва. Этим и воспользовалась корреспондент «МК».

Если посмотреть на то, что происходит в мире (об этом кстати, вышло недавно несколько статей ребят из Гугла), то все существующие генеративные модели все равно работают только в том сегменте и на тех данных, на которых обучались, – поясняет Арутюн Ишханович. – За этим – простая вещь: на самом деле все, что сейчас называем ИИ — это машинное обучение. Пусть очень хитрое, но всего лишь машинное обучение.

– Ну а в будущем «чудо» в виде ИИ возможно?

– Надежда есть, но это произойдет не раньше, чем через 10 лет. Методом суперкомпьютерных ресурсов этого достичь нельзя – нужна более хитрая математика внутри.. Впрочем, кто-то говорит, что до появления искусственного разума осталось 2 года…

– В чем вы видите несовершенство ИИ?

– Его, отчасти, хорошо видно, когда происходит деградация «чуда», когда машина вдруг наезжает на пешехода и почему-то вместо того, чтобы остановиться, начинает себя неадекватно вести: продолжает двигаться, но уже задним ходом. На все случае жизни подготовить ИИ не получается…

– В чем еще вы видите опасность генеративных систем?

– В отличие от обычных информационных систем, которые проверяются, в ИИ часто бывает не понятно, что надо проверять. При этом выгода от его использования высока – продуктивность труда везде растет. Все внедряют, но без учета составляющей, что система-то до конца не доверенна. Причем, дело не только в закладках…

– Что это?

– Иными словами – отравленные данные, которые могут подсунуть мошенники. Ваша машина обучится на них, и после этого вашу систему можно взламывать. Например: человек создает структуру компьютерного зрения, которая должна контролировать периметр вокруг дома, чтобы на территорию не заходили злоумышленники. Но ему дали такие данные, что человек надевает определенный (оговоренный в закладке) значок или кепку, и система его пропускает.

– Что есть у нас для того, чтобы обезопасить себя от такого?

– Мы можем гордиться, потому что мы первыми стали бить тревогу, пять лет назад создали новую специальность в вузах: «Кибербезопасность». Мы развиваемся на нормальном уровне.

…Следом выступили специалисты по самым совершенным в стране лазерным технологиям, вопросам изменения климата, трансформации мирового порядка.

Закрывая первую часть собрания, ученые, казалось, были довольны, ведь еще в начале выступления Геннадий Красников объявил о начале поддержки со стороны Минфина шестой, военной подпрограммы ФНТП, отметил, что с 2024 года будет отменена категорийность институтов РАН, которая мешала развиваться институтам 2 и 3 категорий, а также порадовал членов академии РАН, которым с января 2024 года увеличат стипендии.

Источник: www.mk.ru

Понравилась статья? Поделиться с друзьями:
Добавить комментарий

Яндекс.Метрика