财联社8月31日讯(编辑 卞纯)英国官员日前警告公司不要将人工智能(AI)聊天机器人整合到他们的业务中,称越来越多的研究表明,它们可能被诱骗执行有害任务。
英国国家网络安全中心(NCSC)在周三发表的两篇博客文章中表示,专家们尚未掌握与可以生成类似人类互动的算法(大型语言模型)相关的潜在安全问题。
人工智能工具目前正以聊天机器人方式实现一些早期运用,一些人设想,聊天机器人不仅可以取代互联网搜索,还会取代客户服务工作和电话销售。
【资料图】
NCSC表示,这样做可能带来风险,尤其是如果此类模型被嵌入公司的重要业务流程时。学者和研究人员已经多次发现,如果输入恶意指令或欺骗它绕过内建的防护机制,就可以扰乱聊天机器人。
例如,如果黑客正确下达指令,那么银行部署的AI聊天机器人可能会被诱骗执行一笔未经授权的交易。
“公司在利用大语言模型搭建服务时需要小心,就像它们在使用处于测试阶段的产品或代码库的时候一样?!盢CSC表示?!八遣换崛媚侵植凡斡氪砜突Ы薪灰椎墓ぷ?,而且也不会完全信任这样的产品。同样的审慎也适用于大语言模型?!?/p>
AI安全成全球关注焦点
眼下,世界各国政府都在努力应对大语言模型的崛起,比如OpenAI的ChatGPT,企业正在将其纳入广泛的服务中,包括销售和客户服务。人工智能的安全影响也成为人们关注的焦点,美国和加拿大当局表示,他们已经看到黑客采用了这项技术。
路透社/益普索最近的一项调查发现,许多企业员工都在使用ChatGPT这样的工具来帮助完成基本任务,比如起草电子邮件、总结文件和进行初步研究。
约10%的受访者表示,他们的老板明确禁止使用外部人工智能工具,而四分之一的人不知道他们的公司是否允许使用这项技术。
网络安全公司RiverSafe的首席技术官Oseloka Obiora表示,如果企业领导人未能引入必要的检查,将人工智能融入商业实践将产生“灾难性后果”。
“高管们应该三思,而不是盲目追随最新的人工智能趋势?!彼?。“评估收益和风险,并实施必要的网络保护,以确保公司免受伤害?!?/p>
关键词:
新闻发布平台 |科极网 |环球周刊网 |tp钱包官网下载 |中国创投网 |教体产业网 |中国商界网 |万能百科 |薄荷网 |资讯_时尚网 |连州财经网 |剧情啦 |5元服装包邮 |中华网河南 |网购省钱平台 |海淘返利 |太平洋装修网 |励普网校 |九十三度白茶网 |商标注册 |专利申请 |启哈号 |速挖投诉平台 |深度财经网 |深圳热线 |财报网 |财报网 |财报网 |咕噜财经 |太原热线 |电路维修 |防水补漏 |水管维修 |墙面翻修 |旧房维修 |参考经济网 |中原网视台 |财经产业网 |全球经济网 |消费导报网 |外贸网 |重播网 |国际财经网 |星岛中文网 |手机测评 |品牌推广 |名律网 |项目大全 |整形资讯 |整形新闻 |美丽网 |佳人网 |税法网 |法务网 |法律服务 |法律咨询 |成报网 |媒体采购网 |聚焦网 |参考网
亚洲资本网 版权所有
Copyright © 2011-2020 亚洲资本网 All Rights Reserved. 联系网站:55 16 53 8 @qq.com