对人工智能领域4,260位科学家(AI)的一项调查表明,他们比公众对AI的未来更乐观。 54%的研究人员认为,技术带来的收益超过了风险,而英国公众有13%。 4月1日,相关论文发布在预印服务器Zenodo上。但是,公众等研究人员担心AI在虚假信息,数据滥用和网络犯罪方面的问题。在调查中,有77%的研究人员和68%的公众表示,AI正在提供虚假信息,而有65%的研究人员和71%的公众在未经许可的情况下使用个人数据对技术公司表示不愉快。 ?论文 - 英国伦敦大学学院的Cian O'Donovan的现场表示,这意味着研究人员的观点已经说明了一些政府实施的计划,旨在使人们可以选择不使用其数据进行AI培训。例如,英国政府为具有版权的人提供了这样的政策。罗伯特牛津大学牛津马丁人工智能治理倡议主任特拉格(Traager)说,为了有效地调节“我们需要进行大量研究,例如了解如何应用AI来使网络生态系统和信息更强大”。该研究研究了包括美国,印度和其他国家在内的世界各地的研究人员,并将其答案与以前由国家统计局收集的公共英国的答案进行了比较。当被问及AI如何对人们的生活产生积极影响时,有75%的研究人员认为,这项技术会增加NG学习的机会,而57%的研究人员认为,这将改善人们获得医疗保健的机会。 Traager说,最引人注目的搜索是,不到三分之一的AI研究人员认为应尽快开发该技术。 “他们似乎想要一种更周到的方法来降低风险。”个人数据如何用于训练AI模型是Parti与研究人员密切关注。数以百万计的书籍和论文被人们“被盗”,并用于培训AI模型,这引起了人们对智力权利的关注。只有25%的AI研究人员表示,公司应允许根据公共数据培训其模型。近一半的研究人员说,人们应该明确允许AI公司在培训期间使用其数据,比公众更高。调查发现,大多数研究人员认为,公众需要参与AI,但他们认为这主要与AI的影响和监管有关,而不是AI培训和发展。牛津大学的Ekaterina Herelat表示,调查表明,人们普遍认为,研究人员应该更亲近公众创建“反映用户现实的AI技术”。该研究还表明,如果科学家能够实现普遍人工智能(AAGI),则AI研究人员会分裂。一半的人没有思考,只有21%相信AGI将不可避免地发生。这与科技行业的乐观观点不同,后者认为Agican只需要几年才能实现。但是AGI的含义尚不清楚,因此尚不清楚美国首席执行官公司Sam Altman等技术领导者的意思是,当Openai在某些活动中说“知道如何构建AGI”或“ Super Smart”时。 Openai开发了全球聊天机器人Chatgpt。 AI领域的其他人对语言模型的大革命是否足以实现AGI表示怀疑。一些公司说,真正的AGI需要一个可以与环境互动的话题,以具有所有人类的感受和灵活性。但是这些技术成就尚未实现。相关论文信息:https://dii.org/10.5281/zenodo.15118399