Компания Samsung запретила сотрудниками использовать инструменты генеративного ИИ вроде ChatGPT из-за опасений утечек секретных данных. Об этом пишет Bloomberg. Руководство уведомило работников одного из крупнейших подразделений о новой политике в служебной записке. В компании обеспокоены, что передаваемые ИИ-платформам данные хранятся на внешних серверах. Это затрудняет их извлечение и удаление. Также секретная информация может попасть в руки третьим лицам, говорится в документе. Представитель Samsung подтвердил запрет на использование чат-ботов с искусственным интеллектом. «Внимание к генеративным ИИ-платформам вроде ChatGPT растет как внутри компании, так и за ее пределами. […] Хотя этот интерес сосредоточен на полезности и эффективности, также увеличивается обеспокоенность по поводу рисков безопасности», — сообщили представители корпорации. Итоги недели Итоги недели + главные новости по будням Новые правила Samsung запрещают использование систем генеративного ИИ на принадлежащих компании компьютерах, планшетах и телефонах, а также во внутренних сетях. Руководство попросило сотрудников, использующих ChatGPT и другие инструменты на личных устройствах, не предоставлять какую-либо корпоративную информацию или данные, раскрывающие интеллектуальную собственность компании. Нарушение новой политики может стать причиной увольнений. «Мы просим вас неукоснительно соблюдать наши правила безопасности, […] невыполнение этого требования может привести к компрометации информации о компании, что повлечет дисциплинарные взыскания вплоть до увольнения», — говорится в служебной записке Samsung. Одновременно с этим корпорация создает собственные инструменты искусственного интеллекта для работы с внутренней документацией и программным кодом. Samsung также работает над методами блокировки загрузки конфиденциальной информации о компании во внешние службы. «Штаб-квартира пересматривает меры безопасности […]. Однако пока они не будут подготовлены, мы временно ограничиваем использование генеративного ИИ», — говорится в документе. Напомним, в апреле СМИ сообщили, что сотрудники Samsung как минимум трижды раскрыли секретную информацию ChatGPT. Утечка произошла вскоре после снятия запрета на использование чат-бота.
Запрет на использование генеративного ИИ, в том числе ChatGPT, выглядит логичным шагом, учитывая высокие риски утечек данных, особенно после случаев нарушения конфиденциальности, о которых сообщалось ранее.