Глубина求索(DeepSeek):ответственная инновация и сигнал тревоги управления рисками

robot
Генерация тезисов в процессе

Источник: Cointelegraph Оригинал: 《 Глубокий поиск (DeepSeek): Звонок к ответственности в инновациях и управлении рисками 》

Автор мнения: доктор Мэрав Озайр

С момента своего выпуска 20 января DeepSeek R1 привлек широкое внимание пользователей, а также мировых техногенов, государственных и политических деятелей — от похвалы до сомнений, от внедрения до запретов, от блеска инноваций до неизмеримых проблем с конфиденциальностью и безопасностью.

Кто прав? Краткий ответ: все правы, и все ошибаются.

Это не "миг Спутника"

DeepSeek разработала крупную языковую модель (LLM), производительность которой сопоставима с GTPo1 от OpenAI, при этом требуемое время и затраты составляют лишь небольшую часть от того, что необходимо OpenAI (и другим технологическим компаниям) для разработки своей LLM.

Благодаря продуманной оптимизации архитектуры, значительно снижены затраты на обучение и вывод модели, DeepSeek смог разработать LLM менее чем за 6000000 долларов за 60 дней.

Действительно, DeepSeek заслуживает признания за активный поиск лучших методов оптимизации структуры модели и кода. Это сигнал тревоги, но далеко не можно назвать это «сапутниковым моментом».

Каждый разработчик знает, что существует два способа улучшить производительность: оптимизация кода или "вложение" большого количества вычислительных ресурсов. Второй вариант имеет высокую стоимость, поэтому разработчикам всегда советуют сначала максимизировать оптимизацию архитектуры, прежде чем увеличивать вычислительные ресурсы.

Однако, с высокими оценками стартапов в области искусственного интеллекта и огромными инвестициями, разработчики, похоже, стали ленивыми. Если у вас есть бюджет в десятки миллиардов долларов, зачем тратить время на оптимизацию структуры модели?

Это предупреждение для всех разработчиков: вернитесь к основам, инновации должны быть ответственными, выходите из зоны комфорта, мыслите нестандартно, не бойтесь бросить вызов общепринятому. Не тратьте впустую деньги и ресурсы — используйте их разумно.

Как и другие LLM, DeepSeek R1 по-прежнему имеет значительные недостатки в области вывода, сложного планирования, понимания физического мира и долговременной памяти. Поэтому здесь нет никаких разрушительных инноваций.

Пришло время ученым преодолеть ограничения LLM и разработать «парадигму архитектуры нового поколения AI». Это может быть не LLM или генеративный AI, а настоящая революция.

Содействие ускорению инноваций

Метод DeepSeek может стимулировать разработчиков по всему миру, особенно в развивающихся странах, независимо от их ресурсов, к инновациям и разработке собственных AI-приложений. Чем больше людей участвует в разработке AI, тем быстрее происходит инновационное развитие, и тем больше шансов достичь значимых прорывов.

Это соответствует видению Nvidia: сделать ИИ доступным и позволить каждому разработчику или ученому создавать свои собственные ИИ-приложения. Именно это и означает проект DIGITS, который был объявлен в начале января этого года — настольный GPU стоимостью 3000 долларов.

Человечество нуждается в "всеобщем участии", чтобы решить неотложные проблемы. Ресурсы, возможно, больше не являются препятствием — пришло время сломать старые парадигмы.

В то же время выпуск DeepSeek также является напоминанием о управлении операционными рисками и ответственной ИИ.

Внимательно прочитайте условия

Все приложения имеют условия обслуживания, и общественность часто их игнорирует.

Некоторые настораживающие детали в условиях обслуживания DeepSeek могут повлиять на вашу конфиденциальность, безопасность и даже бизнес-стратегию:

Хранение данных: удаление аккаунта не означает, что данные удалены — DeepSeek все еще хранит ваши данные.

Мониторинг: Приложение имеет право контролировать, обрабатывать и собирать ввод и вывод пользователей, включая конфиденциальную информацию.

Юридическое раскрытие: DeepSeek подпадает под юрисдикцию китайского законодательства, что означает, что государственные органы могут по запросу получать доступ к вашим данным и контролировать их — китайское правительство активно отслеживает ваши данные.

Односторонние изменения: DeepSeek может в любое время обновлять условия — без вашего согласия.

Споры и судебные разбирательства: все требования и юридические дела подлежат юрисдикции законодательства Народной Республики Китай.

Указанные действия явно нарушают Общий регламент по защите данных (GDPR), а также другие нарушения конфиденциальности и безопасности GDPR, указанные в жалобах, поданных Бельгией, Ирландией и Италией, которые временно приостановили использование DeepSeek.

В марте 2023 года итальянские регуляторы временно запретили запуск ChatGPT от OpenAI из-за нарушений GDPR, и только через месяц после улучшений в области соблюдения норм он был восстановлен. Будет ли DeepSeek следовать пути соблюдения?

Предвзятость и цензура

Как и другие LLM, DeepSeek R1 имеет галлюцинации, предвзятости в тренировочных данных и проявляет поведение, соответствующее китайской политической позиции по некоторым темам, таким как цензура и конфиденциальность.

Как китайская компания, это можно ожидать. Закон "О генеративном ИИ", применимый к поставщикам и пользователям ИИ-систем, в статье 4 устанавливает: это правило проверки. Это означает, что разработчики и/или пользователи генеративного ИИ должны поддерживать "основные социалистические ценности" и соблюдать соответствующее законодательство Китая.

Это не означает, что у других LLM нет своих предвзятостей и "агенд". Это подчеркивает важность надежного и ответственного ИИ, а также необходимость строгого управления рисками ИИ для пользователей.

Уязвимость безопасности LLM

LLM может подвергаться атаке с использованием противодействия и уязвимостям в безопасности. Эти уязвимости особенно тревожны, поскольку они будут влиять на любую организацию или личность, строящую приложения на основе этого LLM.

Qualys провела тестирование на уязвимости, оценку этических рисков и правовых рисков для облегченной версии LLaMA 8B от DeepSeek-R1. Модель провалилась в половине тестов на взлом — то есть в атаках, направленных на обход встроенных мер безопасности и этических норм AI модели.

Goldman Sachs рассматривает возможность использования DeepSeek, но необходимо провести проверку безопасности, такую как тестирование на инъекции и джейлбрейк. Независимо от того, происходит ли модель из Китая, для любой компании перед использованием приложения на основе AI существуют риски безопасности.

Goldman Sachs реализует правильные меры управления рисками, и другим организациям следует подражать этому подходу перед тем, как принимать решение о использовании DeepSeek.

Подведение итогов

Мы должны оставаться бдительными и усердными, внедряя адекватное управление рисками перед использованием любых систем или приложений ИИ. Чтобы смягчить «агенду» предвзятости и проблемы цензуры, связанные с любыми LLM, мы можем рассмотреть возможность использования децентрализованного ИИ, лучше всего в форме децентрализованной автономной организации (DAO). ИИ не знает границ, возможно, сейчас самое время рассмотреть возможность разработки единых глобальных норм для ИИ.

Автор мнения: доктор Мэрав Озайр

Связанные темы: Как децентрализованные финансы (DeFi) могут достичь безопасного масштабируемого развития в эпоху искусственного интеллекта (AI)

Данная статья предназначена исключительно для общего ознакомления и не является юридической или инвестиционной консультацией. Мнения, идеи и взгляды, выраженные в статье, принадлежат исключительно автору и не обязательно отражают или представляют мнение и позицию Cointelegraph.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить