投稿
当前位置: 首页 >科技

谷歌Bard也有泄密风险?母公司Alphabet已告知员工避免输入机密信息

2023/6/19 9:39:17 0人评论 9143 次

随着ChatGPT、谷歌Bard等人工智能工具的不断强大,使用这些工具的人群也在不断壮大,也有大量的公司员工在工作时使用,这也就增加了公司信息泄露的风险。相关机构在1月份对12000人的调查就显示,大约43%的专业人士在使用ChatGPT或其他人工智能工具时,通常不会告知他们的老板。…

来源:TechWeb

6月16日消息,据外媒报道,在OpenAI训练的人工智能聊天机器人ChatGPT大火之后,多家公司在开发类似的产品,也有不少公司将ChatGPT等人工智能工具引入到了他们的服务或工作中。

ChatGPT等人工智能工具在为相关的服务或产品带来全新功能、为工作带来便利的同时,泄密也成了他们不得不重视的问题,三星电子半导体业务部门的员工在使用ChatGPT时就导致部分源代码泄漏,三星随后也禁止员工在工作场所使用ChatGPT等生成式人工智能聊天工具。

而从外媒最新的报道来看,作为ChatGPT竞品的谷歌Bard,也有类似的泄密风险。

外媒援引消息人士的透露报道称,谷歌母公司Alphabet已告知员工,不要将机密信息输入人工智能聊天机器人,并警告员工包括自家Bard在内的人工智能工具的风险。

除了不要将机密信息输入人工智能聊天机器人,Alphabet还建议工程师不要直接使用人工智能聊天机器人生成的代码。

此外,从外媒的报道来看,谷歌方面似乎很早就有信息泄密方面的担忧,在今年2月份,也就是Bard人工智能聊天机器人还在内部测试时,谷歌就已告知参与测试的员工,在正式发布之前不要输入内部信息。

作为在ChatGPT大火之后尽全力推出的竞品,Bard对谷歌多项业务的未来发展至关重要,他们目前正在全球超过180个国家以40种语言推广。

随着ChatGPT、谷歌Bard等人工智能工具的不断强大,使用这些工具的人群也在不断壮大,也有大量的公司员工在工作时使用,这也就增加了公司信息泄露的风险。相关机构在1月份对12000人的调查就显示,大约43%的专业人士在使用ChatGPT或其他人工智能工具时,通常不会告知他们的老板。


已有0人点赞
财经评论(0)
查看评论
 

沟通、交流、进读者群、寻求授权,请加雷达学妹(微信:leidaxuemei),线索、爆料,请发送至邮箱:leidacj@163.com。更多精彩:欢迎扫码关注雷达财经微信: