Каждый четвертый россиянин старше 12 лет хотя бы раз в месяц пользуется нейросетями. Статистика лишь подтверждает: ИИ давно перестал быть диковинкой — это полноценный рабочий инструмент, применяемый в самых разных сферах. О том, как развивается искусственный интеллект, как правильно с ним работать и почему не стоит бояться, что нейросети «отберут» работу у людей, «АиФ-Юг» рассказала доктор технических наук Анна Коваленко.
Нужен каждому?
Анна Коваленко более 20 лет занимается системами искусственного интеллекта. Три года назад, когда хайп вокруг нейросетей только начинался, мы уже беседовали с ученой. Но с тех пор многое изменилось, в том числе и роль ИИ.
Сегодня мы сталкиваемся с искусственным интеллектом постоянно, порой даже не замечая этого: телефон подсказывает слова при наборе сообщений, почтовые сервисы фильтруют спам, интернет предлагает рекомендации фильмов, товаров и музыки, а голосовые помощники стали обыденностью.
«ИИ давно вышел из лаборатории и стал частью повседневной жизни каждого, — говорит Анна Коваленко. — Его используют не только в быту: в медицине ИИ помогает врачам ставить диагнозы по анализам и снимкам, выявляя на рентгеновских изображениях даже мельчайшие патологические изменения. В сельском хозяйстве он анализирует фотографии полей, обнаруживает нездоровые растения и прогнозирует урожай. Кроме того, ИИ управляет роботами, контролирует качество продукции, применяется в банковской сфере, кибербезопасности и автопроме. Сегодня умение пользоваться нейросетями становится необходимым навыком для каждого».
На крупной отраслевой конференции «AI Journey 25» осенью прошлого года об этом же говорили вице-премьер Дмитрий Чернышенко и генеральный директор Российского фонда прямых инвестиций Кирилл Дмитриев. Основной мотив их выступлений таков: «Начинайте использовать ИИ, привыкайте к его помощи в рутинных задачах. Это позволит существенно повысить ваши компетенции. Те же, кто не будет пользоваться нейросетями, к сожалению, выпадут из обоймы».
«Так было и с появлением компьютеров, а затем интернета, — объясняет Анна Коваленко. — Те, кто быстро адаптировался и начал использовать новые технологии в работе, значительно повысили свою продуктивность».
Почему высокопоставленные чиновники вообще говорят об искусственном интеллекте? По словам Анны Коваленко, развитие технологий и обучение ИИ — это вопрос технологической безопасности страны, поэтому государство уделяет этому направлению особое внимание.
«Если мы не будем эффективно разрабатывать и использовать собственные ИИ-системы, то через несколько лет столкнемся с абсолютным доминированием чужих решений, — считает доктор наук. А нейросети начнут транслировать нашим детям чужую пропаганду — например, утверждать, что Великой Отечественной войны вообще не было. Поэтому развитие ИИ — одна из важнейших задач государства».
Убийца рутины
ИИ — это инструмент, который можно использовать как во благо, так и во вред.
«Конечно, любая технология несет определенные риски, и искусственный интеллект — не исключение, — продолжает доктор технических наук. — Одним из главных страхов всегда было то, что ИИ „отберет работу у людей“. Эти опасения понятны: сегодня некоторые задачи алгоритмы выполняют быстрее и дешевле человека. Однако я бы не стала драматизировать ситуацию. ИИ -убийца рутинных задач, а не рабочих мест. Интеллектуальные системы автоматизируют именно однообразную, повторяющуюся работу, освобождая время для творческих и сложных задач. Например, ИИ может следить за остатками товара на складе, а человек при этом сосредоточится на постановке задач, контроле качества и генерации новых идей».
Еще один риск — использование ИИ мошенниками. Современные нейросети создают дипфейки: правдоподобные аудио- и видеозаписи, которые вы, скорее всего, уже встречали в соцсетях. Недобросовестные люди с их помощью не только выманивают деньги, но и пытаются влиять на политическую повестку.
Страдают нейросети и от «галлюцинаций» — то есть иногда просто придумывают информацию. По словам Анны Коваленко, этот недостаток заложен в самих принципах работы ИИ.
«Каким бы умным ни казался алгоритм, он делает выводы на основе данных, заложенных в него разработчиками, — объясняет ученая. — Причем выбор этих данных тоже не случаен: одни источники учитываются, другие — игнорируются. Большие языковые модели (БЯМ) часто обучаются с использованием методов с подкреплением: после первичного обучения их проверяет группа экспертов. Но когда ИИ не знает ответа на вопрос, он по умолчанию не может сказать „Я не знаю“, вместо этого он генерирует максимально правдоподобный, хотя и ложный, ответ».
Поэтому Анна Коваленко рекомендует использовать не одну, а несколько БЯМ и применять методы промт-инжиниринга, которым учат студентов с первого курса.
«Нейросеть может давать совершенно разные ответы на один и тот же вопрос — в зависимости от формулировки, — объясняет она. — На каком уровне вы спрашиваете, на таком и получите ответ. Одно дело — просто „реши задачу“, совсем другое — „представь, что ты доктор наук с 30-летним стажем, проведи глубокий анализ и пошагово объясни свои выводы“. БЯМ подстраивается под роль, которую вы ей задаете, и даже ищет ответ в разных „пространствах токенов“. Главное — в промте обязательно указывать: „Если ты не знаешь ответа, так и напиши“. Тогда модель не будет придумывать и вводить в заблуждение».
Ключевой принцип работы с ИИ, по мнению доктора наук, — критическое мышление. Студентов с самого начала учат не доверять алгоритмам слепо, а понимать, откуда берется результат, почему он именно такой и как его проверить. Хотя, конечно, всегда найдутся те, кто захочет быстро сгенерировать реферат или курсовую.
«Поэтому вместе с технологиями развивается не только новое поколение студентов, но и все академическое сообщество, которое должно быть на шаг впереди», — говорит Анна Коваленко.
От слабого к сильному
Несмотря на то, что нейросети стали обыденностью, вокруг них до сих пор существует множество мифов. Самый распространенный, по словам Анны Коваленко, будто ИИ представляет собой сверхразум, способный самостоятельно мыслить, а в будущем и вовсе поработить человечество.
«Это мифы, — объясняет доктор наук. — Современный ИИ не умеет „думать“ — он лишь генерирует ответ на основе запроса. Да, сейчас научное сообщество всего мира работает над созданием так называемого сильного ИИ — системы, способной к самосознанию и осознанному мышлению».
Каковы шансы, что ученые создадут действительно размышляющую систему? Отвечая на этот вопрос, Анна Коваленко приводит аналогию, предложенную доктором физико-математических наук Иваном Оселедцем, который сравнивал нынешнее развитие нейросетей с эпохой дирижаблей: в начале XX века летательные аппараты становились все больше и больше, но настоящий прорыв произошел, когда появился самолет — машина, работающая по совершенно иным принципам.
«Так и мы сейчас находимся на этапе „дирижаблей“: нейросети обучаются на все больших объемах данных, но для перехода к сильному ИИ нужны новые принципы и новая математика, — говорит ученая. — Удивительно, но еще недавно считалось, что разработчикам ИИ можно обходиться без глубоких знаний математики. Это заблуждение: новые технологии возможны только благодаря новым математическим моделям. Нельзя обсуждать нейросети, не затрагивая этические вопросы. Главный из них, повторяет доктор наук, — необходимость критического отношения к технологиям».
Ключевой принцип работы с ИИ - критическое мышление. Студентов учат не доверять алгоритмам слепо, а понимать, откуда берется результат, почему он именно такой и как его проверить.
«И не через запреты, а через практику эффективного использования, — говорит Анна Коваленко. — ИИ нельзя доверять на 100 %. Поэтому каждый человек должен развивать компетенции в своей области, чтобы уметь оценивать результаты, выдаваемые нейросетью. Даже классические программисты уже не востребованы в прежнем виде — почти весь код можно сгенерировать автоматически. Но нужны специалисты, которые смогут протестировать, проверить, улучшить и исправить этот код».
Учить работать с ИИ, уверена доктор наук, надо с раннего возраста. В Китае, например, это делают с первого класса.
«И нам стоит брать пример: уже в школе объяснять, как правильно использовать нейросети, чтобы они служили не просто помощниками, а репетиторами и инструментами личностного роста, — продолжает Анна Коваленко. — Важно также разъяснять риски, особенно старшему поколению. Уровень генерации аудио- и видеофейков растет стремительно, и скоро может начаться новая волна мошенничества. К этому нужно готовиться: предупреждать людей, рассказывать о возможностях ИИ и учить отличать фейковый контент от настоящего».