今天,在拥有46亿年生命史的地球上,作为其中一小个组成部分的人类,无法论证斯蒂芬·霍金口中“创造AI可能是人类历史上最后一个大事件”的真实性,但从人脑与电脑的比拼,到人机共生的未来,拥有高级智慧的我们,在经历欣喜到担忧的心态变化后,是时候认真思考,该如何与人工智能和谐相处了。
人工智能的发展日新月异,与之相关的治理工作也已走到关键的“十字路口”。7月7日下午,武汉网友在短视频平台发布视频,称百度旗下的自动驾驶出行服务平台“萝卜快跑”无人驾驶出租车在武汉街头与行人相撞。7月8日,百度回应称:“是车辆在绿灯亮起启动之际与一名闯红灯行人发生轻微接触。”此事引发关于无人驾驶安全、新型出租车模式的探讨。
7月4日,在2024年世界人工智能大会暨人工智能全球治理高级别会议上,上海人工智能实验室主任周伯文直言,最终,像安全可控的核聚变技术为全人类带来清洁、丰富的能源一样,人类可以通过深入理解人工智能的内在机理和因果过程,从而安全有效地开发和使用这项革命性技术。
在数字化时代,人工智能为我们广开“方便之门”,然而潘多拉的魔盒也在打开。精准推荐的个性化内容,高度满足用户获取信息的需求;优化决策流程并自动化处理繁琐任务,极大满足了打工人对AI助手的需求。
数据安全的风险也如影随形。通过收集用户的语言习惯、兴趣爱好、日常行为等信息,来提供个性化帮助,若被未经授权的第三方获取,就可能对用户的隐私造成侵犯,甚至导致经济损失和信誉破坏。
生成式人工智能可以用来制造虚假新闻、虚假音频和视频等,对社会稳定构成威胁。3月22日,中国互联网络信息中心(CNNIC)在北京发布第53次《中国互联网络发展状况统计报告》:截至2023年12月,我国网民规模达10.92亿人,较2022年12月新增网民2480万人,互联网普及率达77.5%。高度的网络普及,意味着在智能时代,虚假信息的传播速度和广度也在提速,并与我们的社会生活更加密切相关。
在第二十四届中国国际高新技术成果交易会上,参观者体验AI“换脸” 图据新华社
从2023年起,据不完全统计,国内已发生多起AI深度伪造诈骗案件,中招率相当高,叫人防不胜防,也已出现了多起利用AI技术造黄谣、传播不良信息的恶性事件。
AI深度伪造的目标不仅是普通用户,还有各领域知名“大佬”。音乐巨星泰勒·斯威夫特(Taylor Swift),就成为AI生成工具的受害者,在极短时间内,国外社交平台涌现大量以泰勒·斯威夫特为主角的“不雅照片”,浏览量飙升千万。
除了深度伪造之外,AI还可以用来制作“伪原创”。以给定的主题或关键词,利用生成式AI技术,可以迅速生成一篇“原创感”十足的剽窃文。
早在2019年,有人利用OpenAI的生成式人工智能模型GPT-2生成了一篇关于火星上发现独角兽的文章,并将其发布在Reddit上。这篇文章虽然充满了逻辑错误和事实错误,但是却有很多人相信,并且引发了很多讨论和争议;在我国,上海某高校教师也曾在社交媒体上“吐槽”,一些想偷懒的学生,开始用人工智能技术完成论文。
面对以假乱真的AI伪造技术,国内外的专家学者、相关领域的企业机构也想过不少措施应对。例如,可以使用区块链技术来跟踪和验证内容的原始出处,确保信息的真实性。2023年12月,一款名为mist的隐形图片水印在网上开源发布,用于抵抗AI模型对图片的训练和抓取,通过极大程度地干扰AI模型,使之生成的图片遭受不同程度的破坏。此外,也有开发者建议让AI生成平台、公司给相关的AI生成软件加上隐形水印机制,以快速识别AI并进行溯源,各个社交平台也应以技术手段加强对于疑似AI生成图、文、视频内容的识别功能。
如今的医生在人工智能的帮助下,能够迅速分析数百万份医疗影像,找出那些肉眼难以察觉的病变;或者,一个智能机器人在手术台上,以比人类更精准的动作,完成高难度的手术;又或是运用深度学习等技术进行分析和挖掘,从而加速新药开发进程并优化已有药物配方。人工智能为疾病的诊断、治疗和预防带来了革命性的变化。
它是否会被用于不道德的医疗实践,如基因编辑或克隆技术?这是一个摆在全人类面前的难题。
在自动驾驶领域,著名的“电车难题”并未解决。即当自动驾驶汽车在面临不可避免的事故时,车辆的决策算法应该如何权衡不同生命的价值?是否应当选择牺牲少数人以保护更多人的生命安全?事故发生后又应该由谁来承担法律责任?能否对AI或者自主系统加以问责?这涉及极其复杂和敏感的道德抉择。
对人工智能伦理学的研究才刚刚起步,没有令人信服的答案,相关的法律法规也未健全,于是部分人产生了极端的想法:因噎废食。一些人打着伦理的旗号,反对发展人工智能技术。殊不知,讳疾忌医,只能让问题变得更严重。
技术本身没有善恶,而应用它的人类有善恶之分。如何把更多的善植入无意识的机器?如何用伦理道德来规范人工智能?这值得每一位关心人类未来命运的读者深思。
人工智能的强势崛起,引发人们对“机器换人”的担忧。尤其是在过去的2023年——生成式AI的突破之年,由于众多生成式AI模型出现,兴起了对“哪种工作最容易被取代”的讨论,其中就包括数据输入和管理、客户服务、制造业和装配线工作、零售结账、翻译……
新一轮的“机器换人”,极有可能从蓝领拓展到白领。世界经济论坛2023年发布的报告预计,全球近四分之一的工作岗位将发生变化,预计AI将淘汰多达2600万个记录和行政职位。从生产线上的装配工人、数据输入员,到教师、律师,既有对体力劳动的替代,也有对脑力劳动的替代。这无疑会给一部分劳动者带来失业的压力,加剧就业市场的竞争和不稳定。
以机器人为例,近十年来,机器人生产成本以每年5%的速度在下降,还能够保质保量、毫无怨言地24小时工作,这样就能免去劳动关系问题。在人工成本持续上涨的压力下,将会有越来越多的企业选择自动化设备替代劳动者。
学生使用平板设备对智能机器人进行编程 图据成都教育发布
但换个角度来看,工作并不是消失了,而是变了。人工智能会催生新的职业和岗位,如人工智能工程师、数据科学家、算法研究员、机器人制造等。同时,人工智能可以提高企业的生产效率和竞争力,从而促进经济的增长,创造更多的就业机会和新的行业。人工智能在替换相关岗位的同时,将新增6900万个工作岗位,特别是在技术和数字化相关领域。
人工智能对经济的影响堪比19世纪的蒸汽动力、20世纪的工业制造和21世纪的信息技术对世界经济的影响。2018年9月,麦肯锡(MGI)发布报告《人工智能对全球经济影响的模拟计算》,认为人工智能有可能显著提高整体经济生产力。即使考虑到转型成本和竞争效应,到2030年,它也可能使总产量增加约13万亿美元,并使全球GDP每年增加约1.2%。
由于人工智能技术的快速发展,现有的法律法规往往滞后于实际应用,导致在一些领域出现监管空白。例如AI生成内容的版权归属、AI 决策导致的责任认定等问题。
AI无法定罪,因为TA不是“人”。要明确人工智能法律责任的划分和承担,首先就要明确人工智能是否具有法律主体资格。一般学者认为,当前人工智能所担当的社会作用、具有的社会价值尚未达到赋予其主体资格的必要程度,并且需要借助复杂法律技术及组织形式方能实现。因此,当前人工智能不具有赋予其主体资格的充分理由,它只是一种产品或服务,造成他人损害时,侵权行为的认定、责任主体的认定以及民事责任的分配,应当适用产品质量法等法律。
将人工智能视为一种产品,现有法律制度能够在一定程度上解决涉人工智能的侵权责任问题,但司法实践也面临不小的挑战。目前,各国政府和国际组织已经开始关注这一问题,并着手制定相关的法律法规和政策,以规范人工智能的发展,保障公众的利益和安全。
成都超算中心 图据天府发布
AI也要守规矩,用价值观加把“安全锁”。2024年,全球人工智能领域迎来了重要的监管里程碑,其中最具影响力的事件之一便是欧盟《人工智能法案》获正式批准和生效,违反规则可能面临公司全球营业额7%的罚款。去年,我国也相继推出了《生成式人工智能服务管理暂行办法》《人工智能法示范法1.0(专家建议稿)》,旨在推动人工智能领域的立法进展,平衡技术创新和伦理、安全及法律问题,同时积极参与全球人工智能治理,为人工智能的可持续发展提供法律保障。
在人工智能治理领域,历史性的一步已经迈出。7月1日,在第78届联合国大会上,在140多个国家参与联署下,中国主提的加强人工智能能力建设国际合作决议,获得协商一致通过,这彰显了国际社会对于共同推进人工智能发展的深切期盼。
作为“双刃剑”工具,如何让AI向善,正确答案只能是由人类共同书写。正如为世界上第一部便携式计算机写代码的女程序员玛格丽特·汉密尔顿所言,人工智能和机器人只是我们的工具,我们应该控制它们,而不是让它们控制我们。
|