Google, один из крупнейших сторонников ИИ, предупредил своих сотрудников о чат-ботах

Технологии

Google порекомендовала своим сотрудникам не вводить конфиденциальные данные в чат-боты ИИ после того, как исследование показало, что подобный ИИ может воспроизводить данные, которые он усвоил во время обучения. Это создает риск утечки.

Google, один из крупнейших сторонников ИИ, предупредил своих сотрудников о чат-ботах
Как сообщили Reuters четыре человека, знакомые с вопросом, Alphabet Inc (Google) предупредила сотрудников об опасностях использования чат-ботов, в том числе своего собственного Bard.

Материнская компания Google порекомендовала сотрудникам не вводить свои конфиденциальные материалы в чат-боты ИИ, так как человеческие рецензенты могут читать эти чаты. Исследователи обнаружили, что подобный ИИ может воспроизводить данные, которые он усвоил во время обучения, что создает риск утечки.

Компания также предупредила своих инженеров, чтобы они избегали прямого использования компьютерного кода, который могут генерировать чат-боты, сказали некоторые из собеседников.

На просьбу прокомментировать ситуацию компания ответила Reuters, что Bard может делать нежелательные предложения по коду, но, тем не менее, он помогает программистам. Google также заявила, что стремится быть прозрачной в отношении ограничений своей технологии.

Powered by Froala Editor

Поделитесь с друзьями