Источник: Cointelegraph
Оригинал: 《 Глубокий поиск (DeepSeek): Звонок к ответственности в инновациях и управлении рисками 》
Автор мнения: доктор Мэрав Озайр
С момента своего выпуска 20 января DeepSeek R1 привлек широкое внимание пользователей, а также мировых техногенов, государственных и политических деятелей — от похвалы до сомнений, от внедрения до запретов, от блеска инноваций до неизмеримых проблем с конфиденциальностью и безопасностью.
Кто прав? Краткий ответ: все правы, и все ошибаются.
Это не "миг Спутника"
DeepSeek разработала крупную языковую модель (LLM), производительность которой сопоставима с GTPo1 от OpenAI, при этом требуемое время и затраты составляют лишь небольшую часть от того, что необходимо OpenAI (и другим технологическим компаниям) для разработки своей LLM.
Благодаря продуманной оптимизации архитектуры, значительно снижены затраты на обучение и вывод модели, DeepSeek смог разработать LLM менее чем за 6000000 долларов за 60 дней.
Действительно, DeepSeek заслуживает признания за активный поиск лучших методов оптимизации структуры модели и кода. Это сигнал тревоги, но далеко не можно назвать это «сапутниковым моментом».
Каждый разработчик знает, что существует два способа улучшить производительность: оптимизация кода или "вложение" большого количества вычислительных ресурсов. Второй вариант имеет высокую стоимость, поэтому разработчикам всегда советуют сначала максимизировать оптимизацию архитектуры, прежде чем увеличивать вычислительные ресурсы.
Однако, с высокими оценками стартапов в области искусственного интеллекта и огромными инвестициями, разработчики, похоже, стали ленивыми. Если у вас есть бюджет в десятки миллиардов долларов, зачем тратить время на оптимизацию структуры модели?
Это предупреждение для всех разработчиков: вернитесь к основам, инновации должны быть ответственными, выходите из зоны комфорта, мыслите нестандартно, не бойтесь бросить вызов общепринятому. Не тратьте впустую деньги и ресурсы — используйте их разумно.
Как и другие LLM, DeepSeek R1 по-прежнему имеет значительные недостатки в области вывода, сложного планирования, понимания физического мира и долговременной памяти. Поэтому здесь нет никаких разрушительных инноваций.
Пришло время ученым преодолеть ограничения LLM и разработать «парадигму архитектуры нового поколения AI». Это может быть не LLM или генеративный AI, а настоящая революция.
Содействие ускорению инноваций
Метод DeepSeek может стимулировать разработчиков по всему миру, особенно в развивающихся странах, независимо от их ресурсов, к инновациям и разработке собственных AI-приложений. Чем больше людей участвует в разработке AI, тем быстрее происходит инновационное развитие, и тем больше шансов достичь значимых прорывов.
Это соответствует видению Nvidia: сделать ИИ доступным и позволить каждому разработчику или ученому создавать свои собственные ИИ-приложения. Именно это и означает проект DIGITS, который был объявлен в начале января этого года — настольный GPU стоимостью 3000 долларов.
Человечество нуждается в "всеобщем участии", чтобы решить неотложные проблемы. Ресурсы, возможно, больше не являются препятствием — пришло время сломать старые парадигмы.
В то же время выпуск DeepSeek также является напоминанием о управлении операционными рисками и ответственной ИИ.
Внимательно прочитайте условия
Все приложения имеют условия обслуживания, и общественность часто их игнорирует.
Некоторые настораживающие детали в условиях обслуживания DeepSeek могут повлиять на вашу конфиденциальность, безопасность и даже бизнес-стратегию:
Хранение данных: удаление аккаунта не означает, что данные удалены — DeepSeek все еще хранит ваши данные.
Мониторинг: Приложение имеет право контролировать, обрабатывать и собирать ввод и вывод пользователей, включая конфиденциальную информацию.
Юридическое раскрытие: DeepSeek подпадает под юрисдикцию китайского законодательства, что означает, что государственные органы могут по запросу получать доступ к вашим данным и контролировать их — китайское правительство активно отслеживает ваши данные.
Односторонние изменения: DeepSeek может в любое время обновлять условия — без вашего согласия.
Споры и судебные разбирательства: все требования и юридические дела подлежат юрисдикции законодательства Народной Республики Китай.
Указанные действия явно нарушают Общий регламент по защите данных (GDPR), а также другие нарушения конфиденциальности и безопасности GDPR, указанные в жалобах, поданных Бельгией, Ирландией и Италией, которые временно приостановили использование DeepSeek.
В марте 2023 года итальянские регуляторы временно запретили запуск ChatGPT от OpenAI из-за нарушений GDPR, и только через месяц после улучшений в области соблюдения норм он был восстановлен. Будет ли DeepSeek следовать пути соблюдения?
Предвзятость и цензура
Как и другие LLM, DeepSeek R1 имеет галлюцинации, предвзятости в тренировочных данных и проявляет поведение, соответствующее китайской политической позиции по некоторым темам, таким как цензура и конфиденциальность.
Как китайская компания, это можно ожидать. Закон "О генеративном ИИ", применимый к поставщикам и пользователям ИИ-систем, в статье 4 устанавливает: это правило проверки. Это означает, что разработчики и/или пользователи генеративного ИИ должны поддерживать "основные социалистические ценности" и соблюдать соответствующее законодательство Китая.
Это не означает, что у других LLM нет своих предвзятостей и "агенд". Это подчеркивает важность надежного и ответственного ИИ, а также необходимость строгого управления рисками ИИ для пользователей.
Уязвимость безопасности LLM
LLM может подвергаться атаке с использованием противодействия и уязвимостям в безопасности. Эти уязвимости особенно тревожны, поскольку они будут влиять на любую организацию или личность, строящую приложения на основе этого LLM.
Qualys провела тестирование на уязвимости, оценку этических рисков и правовых рисков для облегченной версии LLaMA 8B от DeepSeek-R1. Модель провалилась в половине тестов на взлом — то есть в атаках, направленных на обход встроенных мер безопасности и этических норм AI модели.
Goldman Sachs рассматривает возможность использования DeepSeek, но необходимо провести проверку безопасности, такую как тестирование на инъекции и джейлбрейк. Независимо от того, происходит ли модель из Китая, для любой компании перед использованием приложения на основе AI существуют риски безопасности.
Goldman Sachs реализует правильные меры управления рисками, и другим организациям следует подражать этому подходу перед тем, как принимать решение о использовании DeepSeek.
Подведение итогов
Мы должны оставаться бдительными и усердными, внедряя адекватное управление рисками перед использованием любых систем или приложений ИИ. Чтобы смягчить «агенду» предвзятости и проблемы цензуры, связанные с любыми LLM, мы можем рассмотреть возможность использования децентрализованного ИИ, лучше всего в форме децентрализованной автономной организации (DAO). ИИ не знает границ, возможно, сейчас самое время рассмотреть возможность разработки единых глобальных норм для ИИ.
Автор мнения: доктор Мэрав Озайр
Связанные темы: Как децентрализованные финансы (DeFi) могут достичь безопасного масштабируемого развития в эпоху искусственного интеллекта (AI)
Данная статья предназначена исключительно для общего ознакомления и не является юридической или инвестиционной консультацией. Мнения, идеи и взгляды, выраженные в статье, принадлежат исключительно автору и не обязательно отражают или представляют мнение и позицию Cointelegraph.
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
Глубина求索(DeepSeek):ответственная инновация и сигнал тревоги управления рисками
Источник: Cointelegraph Оригинал: 《 Глубокий поиск (DeepSeek): Звонок к ответственности в инновациях и управлении рисками 》
Автор мнения: доктор Мэрав Озайр
С момента своего выпуска 20 января DeepSeek R1 привлек широкое внимание пользователей, а также мировых техногенов, государственных и политических деятелей — от похвалы до сомнений, от внедрения до запретов, от блеска инноваций до неизмеримых проблем с конфиденциальностью и безопасностью.
Кто прав? Краткий ответ: все правы, и все ошибаются.
Это не "миг Спутника"
DeepSeek разработала крупную языковую модель (LLM), производительность которой сопоставима с GTPo1 от OpenAI, при этом требуемое время и затраты составляют лишь небольшую часть от того, что необходимо OpenAI (и другим технологическим компаниям) для разработки своей LLM.
Благодаря продуманной оптимизации архитектуры, значительно снижены затраты на обучение и вывод модели, DeepSeek смог разработать LLM менее чем за 6000000 долларов за 60 дней.
Действительно, DeepSeek заслуживает признания за активный поиск лучших методов оптимизации структуры модели и кода. Это сигнал тревоги, но далеко не можно назвать это «сапутниковым моментом».
Каждый разработчик знает, что существует два способа улучшить производительность: оптимизация кода или "вложение" большого количества вычислительных ресурсов. Второй вариант имеет высокую стоимость, поэтому разработчикам всегда советуют сначала максимизировать оптимизацию архитектуры, прежде чем увеличивать вычислительные ресурсы.
Однако, с высокими оценками стартапов в области искусственного интеллекта и огромными инвестициями, разработчики, похоже, стали ленивыми. Если у вас есть бюджет в десятки миллиардов долларов, зачем тратить время на оптимизацию структуры модели?
Это предупреждение для всех разработчиков: вернитесь к основам, инновации должны быть ответственными, выходите из зоны комфорта, мыслите нестандартно, не бойтесь бросить вызов общепринятому. Не тратьте впустую деньги и ресурсы — используйте их разумно.
Как и другие LLM, DeepSeek R1 по-прежнему имеет значительные недостатки в области вывода, сложного планирования, понимания физического мира и долговременной памяти. Поэтому здесь нет никаких разрушительных инноваций.
Пришло время ученым преодолеть ограничения LLM и разработать «парадигму архитектуры нового поколения AI». Это может быть не LLM или генеративный AI, а настоящая революция.
Содействие ускорению инноваций
Метод DeepSeek может стимулировать разработчиков по всему миру, особенно в развивающихся странах, независимо от их ресурсов, к инновациям и разработке собственных AI-приложений. Чем больше людей участвует в разработке AI, тем быстрее происходит инновационное развитие, и тем больше шансов достичь значимых прорывов.
Это соответствует видению Nvidia: сделать ИИ доступным и позволить каждому разработчику или ученому создавать свои собственные ИИ-приложения. Именно это и означает проект DIGITS, который был объявлен в начале января этого года — настольный GPU стоимостью 3000 долларов.
Человечество нуждается в "всеобщем участии", чтобы решить неотложные проблемы. Ресурсы, возможно, больше не являются препятствием — пришло время сломать старые парадигмы.
В то же время выпуск DeepSeek также является напоминанием о управлении операционными рисками и ответственной ИИ.
Внимательно прочитайте условия
Все приложения имеют условия обслуживания, и общественность часто их игнорирует.
Некоторые настораживающие детали в условиях обслуживания DeepSeek могут повлиять на вашу конфиденциальность, безопасность и даже бизнес-стратегию:
Хранение данных: удаление аккаунта не означает, что данные удалены — DeepSeek все еще хранит ваши данные.
Мониторинг: Приложение имеет право контролировать, обрабатывать и собирать ввод и вывод пользователей, включая конфиденциальную информацию.
Юридическое раскрытие: DeepSeek подпадает под юрисдикцию китайского законодательства, что означает, что государственные органы могут по запросу получать доступ к вашим данным и контролировать их — китайское правительство активно отслеживает ваши данные.
Односторонние изменения: DeepSeek может в любое время обновлять условия — без вашего согласия.
Споры и судебные разбирательства: все требования и юридические дела подлежат юрисдикции законодательства Народной Республики Китай.
Указанные действия явно нарушают Общий регламент по защите данных (GDPR), а также другие нарушения конфиденциальности и безопасности GDPR, указанные в жалобах, поданных Бельгией, Ирландией и Италией, которые временно приостановили использование DeepSeek.
В марте 2023 года итальянские регуляторы временно запретили запуск ChatGPT от OpenAI из-за нарушений GDPR, и только через месяц после улучшений в области соблюдения норм он был восстановлен. Будет ли DeepSeek следовать пути соблюдения?
Предвзятость и цензура
Как и другие LLM, DeepSeek R1 имеет галлюцинации, предвзятости в тренировочных данных и проявляет поведение, соответствующее китайской политической позиции по некоторым темам, таким как цензура и конфиденциальность.
Как китайская компания, это можно ожидать. Закон "О генеративном ИИ", применимый к поставщикам и пользователям ИИ-систем, в статье 4 устанавливает: это правило проверки. Это означает, что разработчики и/или пользователи генеративного ИИ должны поддерживать "основные социалистические ценности" и соблюдать соответствующее законодательство Китая.
Это не означает, что у других LLM нет своих предвзятостей и "агенд". Это подчеркивает важность надежного и ответственного ИИ, а также необходимость строгого управления рисками ИИ для пользователей.
Уязвимость безопасности LLM
LLM может подвергаться атаке с использованием противодействия и уязвимостям в безопасности. Эти уязвимости особенно тревожны, поскольку они будут влиять на любую организацию или личность, строящую приложения на основе этого LLM.
Qualys провела тестирование на уязвимости, оценку этических рисков и правовых рисков для облегченной версии LLaMA 8B от DeepSeek-R1. Модель провалилась в половине тестов на взлом — то есть в атаках, направленных на обход встроенных мер безопасности и этических норм AI модели.
Goldman Sachs рассматривает возможность использования DeepSeek, но необходимо провести проверку безопасности, такую как тестирование на инъекции и джейлбрейк. Независимо от того, происходит ли модель из Китая, для любой компании перед использованием приложения на основе AI существуют риски безопасности.
Goldman Sachs реализует правильные меры управления рисками, и другим организациям следует подражать этому подходу перед тем, как принимать решение о использовании DeepSeek.
Подведение итогов
Мы должны оставаться бдительными и усердными, внедряя адекватное управление рисками перед использованием любых систем или приложений ИИ. Чтобы смягчить «агенду» предвзятости и проблемы цензуры, связанные с любыми LLM, мы можем рассмотреть возможность использования децентрализованного ИИ, лучше всего в форме децентрализованной автономной организации (DAO). ИИ не знает границ, возможно, сейчас самое время рассмотреть возможность разработки единых глобальных норм для ИИ.
Автор мнения: доктор Мэрав Озайр
Связанные темы: Как децентрализованные финансы (DeFi) могут достичь безопасного масштабируемого развития в эпоху искусственного интеллекта (AI)
Данная статья предназначена исключительно для общего ознакомления и не является юридической или инвестиционной консультацией. Мнения, идеи и взгляды, выраженные в статье, принадлежат исключительно автору и не обязательно отражают или представляют мнение и позицию Cointelegraph.