Alphabet, материнская компания Google, предупреждает всех своих сотрудников, чтобы они были осторожны при использовании чат-ботов с искусственным интеллектом, даже своего собственного Bard. Компания также посоветовала своим инженерам избегать прямого использования кода, сгенерированного этими сервисами.
В сообщении Reuters со ссылкой на четырех человек, знакомых с этим вопросом, говорится, что Alphabet посоветовала своим работникам не вводить конфиденциальную информацию в чат-боты с искусственным интеллектом.
Предупреждения о том, что нельзя делиться информацией с генеративным ИИ появились в начале этого года, с тех пор, как ChatGPT стал известен общественности. NCSC, часть разведывательного агентства GCHQ Великобритании, заявила, что конфиденциальные запросы пользователей, такие как вопросы о здоровье или конфиденциальная информация о компании, видны разработчикам и могут использоваться для обучения будущих версий чат-ботов.
Samsung запретила использование ChatGPT в мае после трех инцидентов, когда инженеры завода полупроводников вводили в сервис конфиденциальные данные. Amazon запретила сотрудникам делиться кодом или конфиденциальной информацией с чат-ботом, а Apple запретила это полностью. Даже его создатель, OpenAI, советует пользователям быть осторожными с тем, что они вводят в подсказку.
В дополнение к тому, что рецензенты могут читать конфиденциальные данные, введенные пользователями, существует также риск того, что эта информация будет раскрыта в результате утечки данных или взлома. Еще в марте OpenAI временно отключила функцию истории чата ChatGPT после того, как ошибка в службе привела к тому, что заголовки разговоров других пользователей появлялись на боковой панели пользовательской истории, расположенной в левой части веб-страницы.
Несмотря на ограничения, недавний опрос 12 000 специалистов показал, что 43% из них используют инструменты искусственного интеллекта, такие как ChatGPT, для выполнения рабочих задач, причем треть из них не сообщают об этом своему начальнику.
Alphabet также посоветовал своим инженерам избегать прямого использования кода, генерируемого чат-ботами. На вопрос, почему, компания ответила, что Bard может делать нежелательные предложения по коду, но он все равно помогает программистам. Google также заявил, что стремится быть прозрачным в отношении ограничений своей технологии.
Вообще у "Барда" проблемы возникли с самого начала. Так еще в феврале в первой демо-версии бот дал неверный ответ. Несколько месяцев спустя мы узнали, что сотрудники Google, как сообщается, призвали компанию не запускать чат-бот, назвав его «патологическим лжецом», «заслуживающим отвращения» и «хуже, чем бесполезным».
Эта неделя принесла для чат-бота еще больше плохих новостей, когда выяснилось, что Google пока не будет запускать его в Европе из-за проблем с конфиденциальностью.
Иван Ковалев
VIA