据报道,三名三星员工向ChatGPT泄露了敏感数据。据说其中一个人让聊天机器人根据会议记录生成笔记。
从表面上看,ChatGPT似乎是一个可以用于一系列工作任务的工具。但在你要求聊天机器人总结重要备忘录或检查工作中是否有错误之前,值得记住的是,你与ChatGPT分享的任何内容都可能被用来训练系统,甚至可能在它给其他用户的回复中弹出。据报道,在与聊天机器人分享机密信息之前,几名三星员工可能已经意识到了这一点。
据《经济学人》韩国版报道,在三星半导体部门开始允许工程师使用ChatGPT后不久,员工至少三次向该部门泄露机密信息。据报道,一名员工要求聊天机器人检查敏感数据库的源代码是否有错误,另一名员工要求优化代码,第三名员工将会议记录输入ChatGPT并要求其生成会议记录。
据悉,三星在得知该安全漏洞后,试图将员工的ChatGPT提示长度限制在1千字节,即1024个字符的文本,以限制未来的无礼程度。据说公司正在对这三名员工进行调查,并建立自己的聊天机器人,以防止类似事故发生。Engadget已联系三星公司进行置评。
ChatGPT的数据策略规定,除非用户明确选择退出,否则它会使用用户的提示来训练模型。聊天机器人的所有者OpenAI敦促用户不要在交谈过程中与ChatGPT分享秘密信息,因为它“无法从你的历史记录中删除特定的提示”。删除ChatGPT上的个人身份信息的唯一方法是删除您的帐户-此过程可能需要4周时间。
三星的故事是另一个例子,说明为什么你在使用聊天机器人时应该谨慎,就像你在所有在线活动中应该谨慎一样。你永远不知道你的数据最终会在哪里。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。
原文地址"三星离职人员曝光,三星内部员工":http://www.ljycsb.cn/qukuailian/229900.html。

微信扫描二维码投放广告
▲长按图片识别二维码