среда, 5 марта 2025 г.

Кому служит генеративный искусственный интеллект?

 Современную жизнь невозможно представить без искусственного интеллекта, однако пока сложно предугадать, куда нас заведет развитие нейросетей. О том, станет ли человечество более глупым из-за умных алгоритмов, как мошенники используют ИИ-модели и стоит ли бояться пришествия «Скайнета», обсудили эксперты на форуме «Кибербезопасность в финансах», который состоялся на днях в Екатеринбурге.

Перетянуть искусственный интеллект на светлую сторону

Генеративный искусственный интеллект (алгоритм, способный синтезировать текст и медиаконтент) создал огромное поле возможностей для кибермошенников. По статистике безопасников, каждое пятое фишинговое письмо сгенерировано нейросетью. Злоумышленники используют дипфейки в мессенджерах, действуя по схеме «звонок от руководителя». Сейчас почти невозможно отличить реального человека от цифрового двойника.

«Генеративный искусственный интеллект развивается активнее и быстрее, чем все остальные технологии, относящиеся к искусственному интеллекту. Есть данные, что 90% контента в интернете уже создается с помощью ИИ. Мы видим, что в социальных сетях предприниматели активно продвигают свои услуги с помощью цифровых двойников. Если в прошлом году еще можно было отличить цифрового двойника по несоответствию эмоционального фона или жестикуляции, то сегодня это настолько близко к реальности, что невозможно понять: видео записал реальный человек или нет», – рассказал директор по развитию «Информзащиты» Андрей Тимошенко.

По его словам, главная опасность заключается в скрещивании технологий, искусственного интеллекта и социальной инженерии. Например, злоумышленники взламывают сеть 5G в элитном жилом комплексе и транслируют на устройства собственников фейковый контент – новости или уведомления. Люди в панике принимают неправильные решения и теряют деньги. Эксперты по безопасности называют это «когнитивным взломом». Искусственный интеллект научился настолько хорошо понимать человека, что может манипулировать его эмоциями и страхами. Этим активно и пользуются мошенники.

«Как мне кажется, точкой бифуркации станет момент, когда искусственный интеллект научится взламывать биометрическую аутентификацию. Это станет новой вехой в противостоянии киберпреступников и защитников», – добавил Андрей Тимошенко.

«Против лома нет приема, если нет другого лома», – шутят в ответ специалисты по кибербезопасности. По их мнению, чтобы дать отпор хакерам, нужно перетягивать возможности искусственного интеллекта на «светлую сторону». Например, белые хакеры с помощью ИИ сейчас ищут уязвимости в системах, а безопасники могут эффективнее отражать кибератаки. «Основной вызов заключается в том, чтобы развивать технологии защиты быстрее, чем это делают киберпреступники. Собственно, мы этим и занимаемся», – подчеркнул представитель «Лаборатории Касперского» Джабраил Матиев.

Наступит момент, когда алгоритмы взломщиков и защитников будут настолько умными, что начнут сражаться друг с другом без участия человека. «Одна нейросеть будет пытаться обмануть другую, и так они будут тренироваться, соревнуясь друг с другом. Я абсолютно уверен, что будет именно такое развитие, но это не значит, что у нас появится какая-то отдельная каста роботов, которая займется черт-те чем. Это значит, что у нас будет очень быстрый прогресс в защите и нападении. И возможно, гонка экспертов перейдет в гонку, например, производителей железа. Это, кстати, неплохо, потому что злоумышленнику будет тяжело спрятать большой дата-центр», – поделился мнением директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов.

Станут ли люди глупее из-за искусственного интеллекта

Несмотря на все риски, использование искусственного интеллекта может принести человечеству намного больше пользы, чем вреда, уверен Алексей Каширин, директор центра продвинутой аналитики «Альфа банка». Умные алгоритмы помогают решать задачи, над которыми люди в прошлом бились годами. Но есть другая крайность: когда человек слишком полагается на нейросети и отключает свое критическое мышление.

«Недавно я стал случайным свидетелем разговора двух женщин в кафе. Они обсуждали, какая нейросеть лучше – ChatGPT или Deep Seek. И одна из них рассказала, что загружает результаты медицинских анализов своего ребенка в чат, чтобы получить рекомендации. Вот такой уровень доверия к технологиям. Поэтому на первый план сейчас выходит цифровая грамотность. Людям надо объяснять, что нейросети, конечно, очень помогают в поиске информации, но эта информация может быть недостоверной. Оценивать здоровье детей через бесплатный бот – это чересчур», – поделился историей Андрей Тимошенко.

Александр Крайнов считает, что искусственный интеллект не может снизить когнитивные способности человека: «Критическое мышление либо есть, либо его нет. Раньше, когда не было нейросетей, та же условная женщина сидела на форуме или спрашивала совета у знакомых, как лечить ребенка, а не шла к врачу. Сейчас в поисковиках на основе нейросетей всегда есть уведомления «информация создана автоматически из нескольких источников» или «информация может быть недостоверной». Хороший аналитик никогда не даст категоричный ответ на вопрос, как бы это ни бесило людей. В этом плане хороший сервис на основе ИИ заставляет людей проверять информацию».

Также эксперт «Яндекса» порассуждал о сравнении умственных возможностей человека и искусственного интеллекта. «Меня коробит, когда сравнивают человека и искусственный интеллект. Когда говорят: «О, искусственный интеллект обыграл человека, он лучше решил задачу для экзамена». Так ИИ был создан для того, чтобы лучше решить эту задачу. Давайте сравним, у кого больше знаний – в мозгу отдельного человека или в библиотеке? Конечно, в библиотеке. Но мы же не говорим: «О, библиотека обыграла человека!» Что такое современный генеративный искусственный интеллект? Это способ компактного хранения знаний. Сначала у нас были книги, в которых мы записывали информацию. Потом у нас появился интернет. Там хранится та же информация, только с более быстрым доступом к ней. Генеративный искусственный интеллект – это следующий уровень. Мы немножко теряем в качестве сохранения информации, потому что она пережевывается, но зато дико выигрываем в скорости доступа к ней. Если хотите, генеративный ИИ – это все та же библиотека, только на радикально новом уровне», – отметил Александр Крайнов.

Технологическая сингулярность близко?

Гипотетический момент в будущем, когда развитие технологий станет бесконтрольным, пугает многих ученых и общественных деятелей. Они считают, что создание искусственного суперинтеллекта будет иметь непредсказуемые последствия для человечества. Участники екатеринбургского форума полагают, что бояться пока нечего – по крайней мере, в ближайшем будущем.

«Несмотря на бурное развитие искусственного интеллекта, особенно в последние годы, я уверен, что мы не приближаемся к такому сценарию. Почему? Да потому что искусственный интеллект сейчас – это математический алгоритм, у которого есть области применения. Да, ИИ становится мощным инструментом в руках человека. Но совсем нет предпосылок, чтобы ИИ научился чего-то хотеть. Это прерогатива и последний бастион углеродной жизни. Поэтому давайте держаться за наши желания, чаяния и планы», – отметил Алексей Каширин.

Андрей Тимошенко высказал альтернативную точку зрения. По его словам, в 2025 году количество ИИ-агентов в интернете превысит 100 миллионов. В какой-то момент алгоритмы начнут взаимодействовать друг с другом, отдавать команды и решать задачи, которые поставил другой робот. «Возможно, это будет некая критическая точка, после которой могут произойти изменения», – отметил представитель «Информзащиты».

Александр Крайнов считает, что футурологи не там ищут опасность. «Наша жизнь все больше зависит от интернета. Кто-нибудь задумывался, что случится, если в мире вдруг сломается интернет? Будут ли работать магазины, автозаправки и другие привычные нам вещи? Мне кажется, опасность, которая нас ожидает, это не какой-то искусственный интеллект, который станет слишком умным и всех нас поработит. А в том, что система, которую мы создаем, настолько сложная, и мы от нее настолько зависимы, что если она внезапно сломается, это очень сильно ударит по нам. А главное, из-за чрезвычайной сложности мы не сможем починить эту систему. Как говорил Джереми Кларксон (ведущий британской телепередачи Top Gear, – прим. ред.): «Не понимаю, почему запрещают скорость на дорогах. Скорость еще никого не убила. Убивает внезапная остановка». Вот и мне кажется, что с искусственным интеллектом то же самое. Я не боюсь его развития. Я боюсь внезапной остановки развития искусственного интеллекта», – отметил эксперт «Яндекса».

Екатеринбург, Валентина Ярославцева

https://newdaynews.ru/ekaterinburg/848010.html

Комментариев нет:

Отправить комментарий