正如数十年前计算机技术、互联网革命引领了技术与生产方式的历史性变革,生成式人工智能开始深刻地影响人们生活的方方面面。当我们使用生成式人工智能高效搜索、生成文本、提高工作效率,当我们感受训练聊天机器人的新鲜感,当我们在文本之上使用图像生成、音频视频生成,生成式人工智能的潜在风险也在不知不觉中逐渐渗透。
科技创新的二元性历来受到社会广泛关注,从互联网的数据隐私到智能机器人的道德伦理,再到生成式人工智能对于个人隐私的处理和引发潜在欺诈行为风险,如何规范应用值得我们深度思考。
用户会给生成式人工智能工具提供个人、公司或所属社会组织的非公开信息,模型获得了这些数据,便有可能在后续各类生成任务中泄露信息。过去担忧手机APP等软件在用户未察觉时对其隐私进行观察和调用,而在生成式人工智能应用场景中,亦存在隐私和信息泄露风险。例如,生成式人工智能可以被用来创建背景丰富、看似来源可靠的信息,进而诱导用户点击恶意链接或下载恶意软件;可以塑造丰富立体的社交媒体形象,甚至模仿某人的声音或外貌,引导造谣与诈骗;可以被训练为向特定用户推荐误导性内容,或在某些情况下加强他们已有的偏见,等等。
生成式人工智能可处理海量数据,但也给知识产权保护、个人隐私保护、打击虚假信息等方面带来新挑战。积极推进人工智能治理,法治与社会教育是促进守正创新的两大抓手。
一方面,营造安全有序的法治环境,规范生成式人工智能服务。为减少虚假信息的传播,建议明确禁止或限制其在特定领域的使用。例如,批量化的虚拟形象创建和对话;为降低隐私泄露风险,建议规定生成式人工智能使用个人数据时需经用户同意,确保数据隐私得到保护,用户有权决定哪些数据可以被使用,以及生成的内容如何使用;为减少对社会公序良俗的破坏,建议严格限制仇恨言论、歧视性内容创建。可考量设立专门的机构负责技术审查和认证,评估生成式人工智能系统的安全性、可信度、伦理问题等。
同时,对于生成式人工智能系统出现问题时的法律责任和赔偿机制,可考虑进行系统设计,对开发者、运营商以及使用者的责任分配展开讨论。本质上,机器产生的任何行为都需要有主体负责,而生成式人工智能能否以及如何界定责任主体,是一个重要而紧迫的问题。自动驾驶的技术发展、商业应用和社会问题,为我们作出了可参考的探索。
另一方面,加强对公众的教育与培训也至关重要。技术的风险不仅来源于自身,也来自于不当使用。如何让公众更好地理解技术、更明智地利用技术,进一步完善科技伦理体系,都需要强有力的社会教育作为支撑。要加强对公众进行教育和培训,强调伦理和法律约束,以提高对这些潜在风险的认识;要增强用户对伦理和法律问题重要性的认识,特别是在生成内容时,明白不应该滥用工具;要鼓励公众充分了解生成式人工智能的逻辑和可解释性、推断和生成过程,鼓励选择更透明和可解释的模型,以便更好理解生成内容的来源和原理,不轻信在看似严肃的行文和环境中插入的各类信息和煽动性观点;要提醒用户保护个人隐私和数据安全,不分享敏感信息尤其是机密信息;政府、行业、企业等相关各方应加强风险研判,有效防控人工智能的科技伦理风险,进一步加强行业自律,不断推动科技向善、造福人类。
新华社北京8月28日电美国加利福尼亚大学旧金山分校近日发布公报说,该校参与的研究团队开发出一种脑机接口,通过训练人工智能算法,成功将一名因脑干中风而严重瘫痪的女性的大脑信号转换成语音和动画表情,使这名女性患者能够通过“数字化身”与人交流。 加州大学旧金山分校和伯克利分校等机构研究人员在这名瘫痪女性大脑表面植入一个... [阅读]
日前,在HICOOL 2023全球创业者峰会分舞台,30余个获奖项目和优秀项目同台路演,为创业者提供与投资机构零距离对接的机会。路演现场,高端装备、新能源、人工智能、虚拟现实等细分领域的项目团队轮番登台,硬科技与人工智能领域的创新成果备受关注。 新材料推动节能环保 “我们的技术受到了撒哈拉沙漠中一种蚂... [阅读]
近年来,欧盟把绿色和数字转型视为经济发展的两大抓手。作为数字战略的一部分,欧盟一直在积极推进人工智能的发展和监管,将目标锚定在赶超世界领先的人工智能发展大国上。 2018年4月,欧盟委员会发布相关文件,概述了协调人工智能发展和部署方法,旨在增加对人工智能研究和创新的投资。此外,欧盟通过“地平线... [阅读]
ChatGPT在全球掀起风起云涌的人工智能(AI)浪潮,在日本同样激起无数浪花。相比在大模型开发上的争先恐后,日本企业更侧重于局部突破,聚焦生成式AI的应用。 日本政府日前召开“AI战略会议”,讨论企业在生成式AI的开发、提供、利用等不同阶段应遵循的规则。日本设想,生成式AI的开... [阅读]
2024-11-22
2024-11-19
2024-11-18
2024-11-15
2024-11-11
2024-11-22
2024-11-19
2024-11-18
2024-11-15
2024-11-11