美国白宫12日发布声明称,美国商务部长雷蒙多等政府官员将在白宫召集人工智能(AI)企业的高管,拟通过共享风险信息、引入第三方漏洞检测、使用限制指南等措施,加强这项新技术的安全应用。
根据声明,Adobe、Cohere、IBM、英伟达、Palantir、Salesforce、Scale AI和 Stability八家涉及人工智能的公司承诺采取自愿监管措施管理AI技术开发风险,包括在推出前展开安全测试、构建安全放在首位的系统、为AI生成内容添加数字水印等。
在确保产品安全方面,八家公司承诺在发布AI系统之前,将对其系统进行内部和外部安全测试。这项测试将部分由独立专家进行,旨在防范人工智能可能造成的风险,如生物安全和网络安全,以及其更广泛的社会影响。此外,公司还承诺在整个行业以及与政府、民间社会和学术界共享有关管理人工智能风险的信息,包括安全最佳实践和技术合作。
这些公司还承诺将安全放在系统构建的首位,承诺将资金用于网络安全和内部威胁保障措施,以保护专有和未发布的大模型。这些大模型是人工智能系统中最重要的部分,八家公司一致认为,在充分考虑安全风险后再发布大模型至关重要。此外,公司还致力于促进第三方发现和报告其人工智能系统中的漏洞,从而使这些问题能快速发现和修复。
在赢得公众信任方面,这些公司致力于开发强大的技术机制,以确保用户知道内容何时由人工智能生成,例如水印系统。这一行动使人工智能的创造力和生产力得以蓬勃发展,且减少了欺诈和欺骗的危险。此外,相关公司承诺公开报告其人工智能系统的功能、局限性以及适当和不当使用的领域。
加强人工智能的应用监管日益成为全球焦点。欧洲议会6月表决通过《人工智能法案》授权草案,该法案有望于今年年底获得最终批准。美国《外交》杂志日前刊文指出,人工智能在2035年可能无处不在:AI系统将管理医院,运营航空公司,并在法庭上较劲。届时,生产力将飙升至前所未有的水平,无数以前难以想象的企业以惊人的速度扩张,但在应用风险的防范方面需要随之升级。业界普遍认为,如何更好地平衡与衔接技术创新和制度创新,还需在实践中不断修正。
近日,腾讯公司的人工智能大模型“混元”在2023腾讯全球数字生态大会上正式亮相,该大模型在中文创作、复杂语境下的逻辑推理、可靠的任务执行等方面具有技术优势。 当前,国内科技龙头企业密集推出人工智能大模型,呈现百花齐放、迅猛发展的态势,腾讯、华为、阿里、百度等巨头纷纷入局,投入资源、潜... [阅读]
GPT是一种先进的自然语言处理模型,通过预训练可以适应各种任务,以实现更高的语言理解和生成能力。360集团创始人周鸿祎表示,OpenAI最大的创新是首次突破局限性,可以用人类所有的知识训练大模型。 “机器深度学习的革命大致经历了三波,一浪比一浪大。”地平线创始人、CEO余凯回顾说,第... [阅读]
人工智能是人类发展新领域。近日有外媒报道称,在人工智能开发领域,西方企业应该向中国学习,否则就可能落后。对此,我们既不应妄自尊大,也不能妄自菲薄,必须保持清醒、脚踏实地干好自己的事情,让人工智能技术早日走进千家万户、真正赋能百业,为支撑高质量发展作出贡献。 近年来,我国高度重视人工智能发展。我国人工智能核心产业规模达到5000... [阅读]
9月12日,《证券日报》记者从高工机器人产业研究所(以下简称“GGII”)获悉,2023年上半年自主移动机器人(以下简称“AMR”)市场出货量4.8万台左右,同比增长26%。同时,预计2023年在光伏等行业的需求带动下,AMR将成为带动移动机器人销量增长的主要产品类型之一。 &l... [阅读]
2024-11-19
2024-11-18
2024-11-15
2024-11-11
2024-11-05
2024-11-19
2024-11-18
2024-11-15
2024-11-11
2024-11-05