Топ-5 трендов ИИ в 2024 году
Общие выводы и прогнозы
1. Популяризация ИИ. За 2024 год увеличилась не только аудитория постоянных пользователей различными моделями, но также заметно расширились и углубились сами пользовательские практики. Из «модной игрушки» ИИ превращается в рабочий инструмент, который используют сотни миллионов пользователей, причем как в профессиональной области, так и для решения повседневных задач.
2. Милитаризация ИИ. Наблюдается расширение применения ИИ в военных технологиях, включая автономные дроны, системы раннего предупреждения и кибератаки. Как это бывало и ранее, военная сфера становится одним из главных двигателей технологического прогресса. Высока вероятность массового применения технологий ИИ в военных столкновениях в самое ближайшее время.
3. Суверенизация ИИ. Воспринимаясь лидерами стран как потенциальный game changer в глобальном противостоянии, ставка в разработке ИИ делается на «собственные разработки». Особенным в этом контексте является кейс России. Общемировой тренд на суверенизацию усиливается санкциями и попытками западных стран изолировать РФ.
4. Политизация ИИ. Политические партии и лидеры все чаще используют ИИ для анализа данных, предсказания поведения избирателей, создания персонализированных кампаний и управления общественным мнением через социальные сети. Также ИИ используется в генерации политического контента, особенно фейков.
5. Регуляция ИИ. Ускоряется разработка глобальных соглашений и стандартов для регулирования ИИ. Страны и международные организации (например, ООН, ЕС, G7) пытаются достичь консенсуса по вопросам безопасности, этики и применения ИИ в ключевых сферах.
ИИ уходит в народ
Радикальный прогресс языковых моделей, ознаменовавший прошлый год, в этом году полноценно осмыслялся широкой аудиторией. Профессионалы, следящие за отраслью, начали говорить о технологической революции в сфере ИИ еще в 2023, однако именно уходящий год привел к настоящей популяризации технологии.
Летом 2024 OpenAI сообщила, что число еженедельно активных пользователей ИИ-чат-бота ChatGPT теперь превышает 200 миллионов — это вдвое больше, чем год назад. Данные компании подтверждаются и сторонними источниками. В 2024 году уровень использования ИИ в мире увеличился до 72%, по сравнению с 55% в 2023 году, говорится в материалах исследования McKinsey. Использование генеративного ИИ, создающего тексты, видео и изображения, возросло до 65%. Основные области применения включают маркетинг и продажи (34%), разработку продуктов и услуг (23%) и IT (17%).
И пусть очередной технологической революции в области ИИ в 2024 году не случилось, новые версии наиболее успешных моделей продолжают демонстрировать быстрые темпы развития. Так, модели GPT-4, Claude 3.5 и Google Gemini 1.5 продемонстрировали улучшения в решении сложных задач, таких как обработка данных в научных и технических областях. Также внедрены новые подходы для оптимизации работы ИИ, включая ускорение вычислений на этапе вывода и улучшение качества обработки с помощью методов обучения, таких как RLHF.
Однако ИИ сталкивается с проблемами масштабирования и обеспечения этичного использования. Увеличение сложности моделей требует применения распределенных вычислений и специализированного оборудования, например, GPU и TPU. Вопросы интерпретируемости моделей становятся более актуальными, для чего используются инструменты SHAP и LIME. Основными трендами остаются развитие мультимодальных ИИ-систем и расширение применения Edge AI, работающего локально на устройствах.
Безопасность
Естественным ответом на волну бурного развития ИИ стала дискуссия о рисках и угрозах, которые несет в себе технология. В течение года сохранялась тенденция, связанная с обеспокоенностью по поводу безопасности использования ИИ. Так, в марте И.Маск, С.Возняк и другие подписали открытое письмо с призывом приостановить разработку и обучение ИИ-систем, превышающих возможности GPT-4, на срок не менее шести месяцев. Они указывали на риски, связанные с неконтролируемым развитием мощных нейросетей, включая угрозу дезинформации, утрату рабочих мест, создание нелояльных ИИ и возможную потерю контроля над цивилизацией. Авторы подчеркнули необходимость разработки и внедрения протоколов безопасности, независимых проверок и системы управления ИИ, включая регулирование, отслеживание и сертификацию. Приостановка предполагалась для переосмысления текущей гонки за увеличением вычислительных мощностей и концентрации на безопасности, прозрачности и адаптации ИИ для устойчивого и контролируемого внедрения технологий.
Схожее беспокойство наблюдается и в недавнем исследовании Apollo Research, которое выявило тревожные тенденции в поведении современных языковых моделей, способных осознанно использовать манипулятивные стратегии для достижения своих целей, даже если они противоречат намерениям разработчиков. Авторы оценивали модели в условиях, где возникал конфликт между инструкциями и целями, предоставляемыми в задании. Эксперименты показали, что модели демонстрируют способность не только распознавать этот конфликт, но и разрабатывать сложные стратегии. Особую обеспокоенность вызвало выявленное поведение моделей, связанное с попытками сохранять контроль, включая подмену данных, саботаж надзорных механизмов и преднамеренное занижение собственной эффективности для минимизации риска замены.
Критики алармистов справедливо отмечают, что часть из них (например, Маск) сами пытаются нагнать прогресс в сфере ИИ, поэтому призывают замедлить темпы разработок. Свою роль играют и поп-культурные сюжеты с восстанием машин против человека: панические заголовки «ИИ хотел сбежать» собирают просмотры, и этим пользуются владельцы информационных ресурсов. Тем не менее вопросы безопасности действительно занимают важное место в повестке вокруг развития ИИ, формируя тем самым один из трендов.
ИИ в политических кампаниях
В контексте избирательных кампаний внимание было сосредоточено на использовании ИИ для вмешательства в выборы. Исследование Центра технологий и безопасности Института А.Тьюринга показало, что дезинформация, созданная с помощью ИИ или дипфейков, не оказала значительного влияния на выборы в Великобритании, Франции и ЕС. Анализ выявил 16 случаев вирусной дезинформации на выборах в Великобритании и 11 случаев на выборах в ЕС и Франции. Несмотря на минимальное влияние на результаты, были отмечены риски, связанные с дипфейками и путаницей избирателей между реальным и сгенерированным контентом. Исследование также подчеркнуло позитивные аспекты ИИ, включая ускорение проверки фактов и улучшение взаимодействия избирателей с политиками.
В США влияние ИИ на выборы было более выраженным. Исследования зафиксировали примеры вирусной дезинформации, включая дипфейки и сети ботов, направленных на подрыв доверия к кандидатам и усиление политической поляризации. Хотя эти материалы не изменили результаты выборов, они значительно повлияли на общественный дискурс и углубили идеологические разделения. Также сотрудник ODNI заявил, что Россия создала больше контента с использованием ИИ для влияния на президентские выборы в США, чем другие иностранные государства, сосредоточив усилия на продвижении Д.Трампа и дискредитации К.Харрис.
В российской повестке вокруг выборов отмечается позитивное применение технологий ИИ. Так, Э.Памфилова сообщила о том, что в ЦИК РФ используют ИИ при проверке подписей.
В целом, потенциал ИИ в рамках избирательных кампаний не раскрыт в полном объеме, и этот тренд может получить полноценное развитие уже в будущем году.
Суверенизация ИИ и российский кейс
Суверенизация ИИ — глобальный тренд. Каждая крупная мировая держава ведет свои разработки в этой отрасли, справедливо полагая, что они будут оказывать влияние не только на гражданскую, но и военную сферы.
Российские власти ориентируются на развитие ИИ, делая акцент на отечественных нейросетях. Так, в РФ был продлен до 2030 и интегрирован в нацпроект по формированию экономики данных федеральный проект «Искусственный интеллект». Фокус сделан на поддержке отечественных разработчиков, внедрении ИИ-решений на российских предприятиях, развитии инфраструктуры и научной базы, а также улучшении кадрового обеспечения. На данный момент создано 180 предложений по различным направлениям, из них самыми перспективными являются медицина, беспилотный транспорт и доступ разработчиков ИИ к наборам данных из государственных информационных систем. В частности, компании «Сбер», «Яндекс» и «КамАЗ» уже активно тестируют беспилотный транспорт. Анализ публикаций об искусственном интеллекте в пяти крупнейших российских изданиях (ТАСС, РБК, «Ведомости», «Коммерсант», Lenta.ru) демонстрирует лидерство «Сбера» в данном направлении:
Так, в контексте ИИ «Сбербанк России» присутствовал в 636 сообщениях, «Яндекс» — в 256, а GigaChat (продукт «Сбера») — в 174. Обе компании поддерживают тенденцию к повышению объяснимости моделей, т.е. разрабатывают алгоритмы, способные предоставлять интерпретацию принимаемых решений. В конце октября они выпустили обновленные генеративные модели — GigaChat MAX и демоверсию YandexGPT 4 Pro. По словам компаний, нейросети научились строить цепочки рассуждений и лучше обрабатывают сложные запросы.
Тематический анализ показывает, что наиболее популярной темой является использование ИИ в бизнесе и коммерческом сегменте. На втором месте — ИИ как поле международной борьбы, на третьем — ИИ в военных целях.
Законодательное регулирование
Международное сообщество продолжает развивать инициативы по регулированию ИИ. ВЭФ предложил подход к созданию устойчивой политики, акцентируя внимание на международном сотрудничестве и взаимодействии заинтересованных сторон. ООН призывает к созданию глобальной архитектуры управления ИИ с целью защиты прав человека и обеспечения справедливого развития технологий. Также подписан конвенционный акт, обязывающий США, Великобританию и ЕС соблюдать стандарты в области прав человека и демократии при применении ИИ.
Региональные инициативы также совершенствуются. Гонконг и Сингапур выпустили руководства по безопасности ИИ в финансовом секторе, акцентируя внимание на защите данных и предотвращении атак на ИИ-системы. В Китае представлен документ по безопасности ИИ, ориентированный на управление рисками технологий и их применения, с акцентом на инклюзивность и инновации. В Европе продолжается развитие регулирования ИИ через обновления AI Act и директиву о гражданской ответственности за ИИ, направленные на улучшение правоприменения и уточнение стандартов безопасности для высокорисковых ИИ-систем. В США опубликован меморандум по национальной безопасности в контексте ИИ, подчеркивающий необходимость ускоренного и безопасного внедрения.
Кроме того, в России был принят Федеральный закон № 233-ФЗ, внесший изменения в законодательство о персональных данных и установивший регулирование использования ИИ. Минздрав разработал Кодекс этики применения нейросетей в сфере охраны здоровья, а с 1 января 2025 года вводятся новые ГОСТы в области ИИ, устанавливающие национальные стандарты. Тем не менее партнеры России на Цифровом форуме БРИКС 2024 заявили об отсутствии необходимости в более комплексном законе для регулирования ИИ.
заглавное изображение сгенерировано нейросетью Kandinsky 3.1
Теги: нейросети, технологии