ChatGPT背后的数字安全威胁

2023/02/09

  2个月用户破亿迅速爆火的ChatGPT,让普通人拥抱人工智能变得不再遥不可及。已经成为互联网领域发展20年来,增长速度最快的一款2C的消费类应用程序。

  你只要给ChatGPT发提示(问题)就可以生成任意主题的文本内容,可以写诗歌,小说散文,段子,甚至写论文,做方案PPT等等,也可以让ChatGPT写代码进行编程,甚至生成恶意软件和链接。

  ChatGPT的“入侵”已经引起了各行各业对内容抄袭的担忧,及网络数据安全的提防意识的提高。 虽然AI技术是中立的,但并不能成为规避责任与义务的理由。

  教育界和学术界已最先做出反击。目前已有数千种科学期刊明令禁止或限制投稿人使用 ChatGPT 撰写或编辑论文,包括知名学术期刊《科学》,《自然》等都更新了编辑规则。美国一些大学也通过网络禁止接入ChatGPT,甚至要取消回家作业。

  其实AI伦理风险也一直被广泛关注,即指AI可能会生产违反常规、违背法律和道德的内容,或帮助人类以作弊等形式完成违反常规、违背法律和道德。ChatGPT涉及的网络数据安全合规主要涉及数据获取,及恶意滥用所产生的问题。

  曾参与过行研社数据安全研讨会的专家,北京师范大学互联网发展研究院院长助理吴沈括教授认为ChatGPT在实际应用层面将面临三种风险:

  第一种是在更巨量数据汇聚的过程中,可能会产生法律和安全风险; 第二种是在模型和算法设计的过程中,可能产生伦理和违法风险; 第三种是在实际应用过程中,可能被用于违法犯罪行为,进而带来社会风险。

  知识产权

  目前最大的争议是ChatGPT的“文本数据挖掘”是否需要相应的知识产权授权?ChatGPT通过互联网抓取信息进行深度学习,而大多数网站都有防止第三方收集信息的网站隐私政策条款。从法律角度来看,国内的文本数据挖掘理论上需要相应的知识产权授权。并且,目前国内外大部分国家的知识产权法律下,仅有自然人可以享有著作权。这意味这如果AI利用真人的作品拼接出的创作,有可能存在侵权。因此,我国也已出台了对AI深度合成技术的一些规范要求。

  数据合规

  生成式AI技术的商业化趋势已经到来,众多公司正在应用到自身的产品和服务中去。通过在线服务、智能客服,融入各类产品文本理解分析,多模态检索等等,全面提升自身产品和服务的AI化。因此,网络数据安全问题也开始被重视。

  可能导致一些敏感数据泄露风险。本月开始微软和亚马逊于已宣布禁止公司员工向ChatGPT分享。微软内部的工程师也警告不要将敏感数据发送给OpenAI终端,因为OpenAI可能会将其用于未来模型的训练。

  的虚假信息回复问题。作为基于语言模型的人工智能工具,ChatGPT也会编造一些看似正确的答案,即“一本正经的胡说八道”。这样的虚假回复在商业化中会造成严重后果,甚至有法律风险。