(資料圖片僅供參考)
谷歌母公司Alphabet已向其員工發出警告,不要使用吟游詩人,谷歌自己的聊天機器人,已經獲得了一段時間的牽引力。發出此警告的原因很簡單,該公司不希望員工在聊天機器人中輸入任何機密或敏感信息,并且還討論了與使用這些工具相關的風險。這不是公司第一次提出這樣的擔憂,出于正確的原因,因為這些聊天機器人不斷學習和發展,但與此同時,它們確實有犯錯誤的傾向。
在三星之后,甚至谷歌也警告其員工不要使用像巴德這樣的聊天機器人。
除了不廣泛使用有風險的敏感信息的聊天機器人外,谷歌還建議工程師避免直接使用聊天機器人提供的代碼。簡而言之,盡管Bard或其他聊天機器人提供的代碼可能是準確的,但始終存在代碼不正確的風險,從而導致錯誤和結果,而這些錯誤和結果并不是工程師所期望的。
考慮到這一點,谷歌并不是唯一一家警告不要使用人工智能聊天機器人的公司。三星實際上已經禁止其員工出于同樣的擔憂使用ChatGPT或任何其他聊天機器人。與此同時,我們聽說公司正在努力開發自己的大型語言模型,所以我們可能很快就會在未來看到一些東西。蘋果還限制員工從使用巴德,所以可以肯定地說,擔憂是真實的。
我確實理解人們對使用聊天機器人的擔憂,特別是對于蘋果、三星和谷歌等大公司。特別是當員工可以訪問大量不應該泄露的信息時。希望這將防止機密和敏感信息落入壞人之手,因為在這一點上,這不僅僅是產品泄漏,而是更多的利害關系。
與使用聊天機器人相關的風險足以證明,就為您提供任何具體證據而言,它們并不是最可靠的產品。而且,將敏感信息提供給聊天機器人絕對不是我們建議任何人的事情,因為它可能導致信息成為機器人的永久部分并落入其他人手中。


























































































