Wang Yuanfeng:违反管理困难并开发一个“全球护栏
栏目:公司资讯 发布时间:2025-04-04 09:16
联合国裁军研究所在瑞士日内瓦举行了一项国际研讨会的“全球人工智能(AI)安全与道德”。如果国际社会允许这种趋势发展,它将严重阻止努力加强全球人工智能管理并应对AI安全挑战。实际上,我们需要清楚地意识到,全球人工智能管理的复杂性远远超出了预期,并且存在三个困境。首先,差异与管理概念不同。在全球AI管理的理论层面上,有两个完全不同的观点:“超级一致”和“有效加速”。人工智能科学家代表的“超级结盟派别”认为,PAG -AI的发展应符合人类的价值观和道德。他们强调,AI的迅速发展可能具有不可逆转的Negati对人类社会的影响,因此应该加强管理。 “有效的加速器”认为,AI所带来的问题应由技术本身解决。他们强调了变革的重要性,认为过度政府可以杀死技术的潜力。在实际层面上,存在明显的差异 - 国际社会为AI发展产生的规则和法规。作为世界上第一个介绍《人工智能法》的管辖权,欧盟政策取向倾向于有效地管理AI造成的各种问题,以防止其损害社会成员。相比之下,美国政府,尤其是在T的PowerRump之后,将采取完全相反的行为。他们认为,不应过分监管AI的发展。可以看出,无论是在理论讨论还是实际操作中,AI管理都面临着许多不同的观点和立场。
第二个是e管理主题的问题。全球人工智能管理公司还面临着谁将负责和谁将管理更强的人的不确定性。作为一般技术,AI具有广泛的应用,涵盖了每个国家,商业和行业。管理一个国家显然不足以解决全球问题,因此需要一个全球管理平台。但是,诸如联合国之类的国际机构已经揭示了以前的全球技能(例如气候管理和生物多样性护理)的许多问题。尽管联合国在AI管理方面做出了出色的工作,但结果仍然有限。然后在英国,韩国和法国举行了AI行动谣言。但是,由于不同国家对AI管理的不同思想,每个国家转向监督的自发管理模型显然很难满足全球AI管理的需求。否认美国在法国人工智能行动峰会上,英国在不同国家的协调职位方面面临着全球管理的重大挑战。最初,所有国家都应共同努力,以应对AI带来的挑战。但是,美国阻止了其他国家 /地区的AI发展,试图通过“破坏链条”和“衰减”等方式加强AI的国际合作,这给全球AI管理带来了明显的障碍。 lag。由于Alphago在2016年击败了这位著名的韩国GO球员,并在2017年击败了全球第一名,因此AI的开发速度令人印象深刻。从那以后,新一代AI技术的兴起促进了该行业的快速发展,尤其是2022年11月,美国OpenAI公司推出了GPT。在短短两年内,我们目睹了许多出色的AI模型的出现。中国最近推出的DeepSeek之类的AI模型也显示出出色而强大的运营大型语言模型。这些模型不仅使技术突破,而且在实际应用中表现出巨大的潜力。但是,尽管AI模型仍然更加强大,但他们对人类工作,信息安全和社会伦理的挑战越来越众所周知。许多年前,科学家霍金(Hawking)警告:增加人工智能是人类历史上最好的事情,或者是人类历史上最糟糕的事情,我们不知道情况是什么。因此,霍金要求在这一领域进行更多研究,以学习如何避免风险。 2023年3月,马斯克与许多AI专家和行业高管联手发出一封公开信,呼吁暂停与GPT-4更强的AI系统,至少6个月。但是,此呼叫并未得到广泛响应。在全球范围内,人工智能的发展仍在快速移动,而管理过程缓慢地表现了不同的兴趣和理解对象的不同差异艾夫斯在所有分类中。全球AI治理是一项复杂而艰巨的任务,需要政府,国际组织和企业的共同努力来应对挑战。联合国古特雷斯(Un Guterres)的联合国秘书在巴黎AI行动峰会上说,AI正在改变我们的世界,但技术权力仍掌握在某些人的手中。他呼吁所有国家一起使用这项革命性技术来“桥梁,而不是扩大国家和国家形成之间的鸿沟”。增加人工智能能力的集中度“可能会进一步加剧全球差异 - 政治多样性”。 “全球护栏”必须通过各个国家的政府,技术和学术界的共同参与来建立。 )