Chat GPT开发商 Open AI和 Google DeepMind 的现任和前任员工警告称,不受监管的人工智能 ( AI ) 是危险的,可能导致“人类灭绝”。自己创建人工智能的公司辩称,他们无法独自解决问题,应该对举报人采取保护措施,以便分担风险担忧。
据华尔街日报( WSJ)和路透社4日(当地时间)报道,Open AI和谷歌旗下DeepMind的约10名现任和前任员工今天发表联合声明,引发人们对一种名为AI的新技术可能带来的风险的担忧。
“最了解尖端人工智能系统如何工作以及部署这些系统的相关风险的人无法畅所欲言,”Open AI前员工威廉·桑德斯 (William Saunders) 在声明中透露了自己的真实姓名。除了 Saunders 之外,还有 6 名前 Open AI 员工和 4 名现任 Open AI员工,以及 1 名前 DeepMind 员工和现任 DeepMind 员工,其中 6 名签署者要求匿名。他们在一份声明中指出, “与人工智能相关的风险包括加深现有的不平等、操纵和错误信息,以及失去对自主人工智能系统的控制,可能导致人类灭绝。”
据报道,在某些情况下,包括 Open AI在内的多家公司的人工智能程序创建的照片中包含与投票相关的错误信息。据透露,由于定制化的公司治理结构,与人工智能相关的风险管理很难带来改变,例如公司内部的报告。他们表示,“人工智能公司由于其追求利润的目标而缺乏适当的监管,仅靠内部监管体系无法解决问题。人工智能公司拥有有关各类风险水平的大量非公开信息,但其中一些信息是”。
与政府和民间社会分享这些信息的义务很弱,我不相信这些信息会自愿分享,”他辩称。他们还批评人工智能公司通过过多的保密协议来阻止提出相关担忧或批评。 “由于与公司签订了广泛的保密协议,我们无法表达我们的担忧,”他们表示,“一般举报人保护的重点是不当行为,考虑到整个行业类似案件的历史,我们中的一些人可能对此感到担忧。 “我们担心各种形式的报复,”他强调。因此, 禁止签订禁止诽谤或批评公司风险相关问题的协议建立向独立组织提出风险相关问题的匿名程序禁止对公开分享风险相关问题的现任或前任员工进行报复信息等敦促。
此外,《华尔街日报》报道称,知名人工智能专家也支持这封信。主要人物包括人工智能科学家斯图尔特·拉塞尔 (Stuart Russell) 、因其早期开创性研究而被称为“人工智能教父”的约书亚·本吉奥 (Joshua Bengio)和杰弗里·辛顿 (Jeffrey Hinton)。 Hinton去年离开谷歌,更自由地谈论人工智能技术的风险。据《华尔街日报》报道,一些人工智能研究人员认为,人工智能技术可能会失控,变得像流行病或核战争一样危险,尽管这些担忧的强度较低,但许多专家认为应该加强对人工智能的监管。
引领生成式人工智能市场的Open AI在回应这一声明时表示,它同意政府监管是必要的。 Open AI发言人表示:“我们对提供最强大、最安全的人工智能系统的记录感到自豪,我们相信应对风险的科学方法。” “鉴于这项技术的重要性,我们认为严格的辩论很重要。 “我们同意并将继续与世界各地的政府、民间社会和其他社区合作。”