【今日头条】当“机”智过人成为现实 我们的恐慌要如何消除?

RSS
您当前的位置:首页 > 科技

【今日头条】当“机”智过人成为现实 我们的恐慌要如何消除?

发布时间:2018-08-31 13:59:00 作者:小编

2018-08-31 13:59:00

  人工智能正以出乎想象的速度走进我们的生活,渗透到了制造、家居、金融、交通、安防、医疗、物流等各行各业。据预测,2018年全球AI产业市场规模将逼近2700亿元;2020年全球市场规模将达4000亿元;至2025年,全球范围内人工智能产业收入的年均复合增长率将大幅提升,达到57%以上。

  诚然,人工智能的飞速发展一定程度上改变了人们的生活,但与此同时,由于人工智能尚处于初期发展阶段,该领域的安全、伦理、隐私的政策、法律和标准问题引起人们的日益关注。具备超快学习能力的人工智能是否将进化的比人类还要先进?是否有一天将摆脱人类的控制?一旦出现人机情感危机问题应如何解决?人工智能是否应该作为法律意义上的人承担事故责任?……诸如此类的问题层出不穷,使得人们在享受人工智能带来的便利的同时,也难掩内心的恐慌。

  就人工智能技术而言,安全、伦理和隐私问题直接影响人们与人工智能工具交互经验中对人工智能技术的信任。如果不能消除人们内心的怀疑和忌惮,必将影响人工智能技术的发展。

人工智能的安全问题不容忽视

  人工智能最大的特征是能够实现无人类干预的,基于知识并能够自我修正地自动化运行。在开启人工智能系统后,人工智能系统的决策不再需要操控者进一步的指令,这种决策可能会产生人类预料不到的结果。设计者和生产者在开发人工智能产品的过程中可能并不能准确预知某一产品会存在的可能风险。因此,对于人工智能的安全问题不容忽视。

  由于人工智能的程序运行并非公开可追踪,其扩散途径和速度也难以精确控制。在无法利用已有传统管制技术的条件下,想要保障人工智能的安全,必须另辟蹊径,保证人工智能技术本身及在各个领域的应用都遵循人类社会所认同的伦理原则。

  其中应特别关注的是隐私问题,因为人工智能的发展伴随着越来越多的个人数据被记录和分析,而在这个过程中保障个人隐私则是社会信任能够增加的重要条件。总之,建立一个令人工智能技术造福于社会、保护公众利益的政策、法律和标准化环境,是人工智能技术持续、健康发展的重要前提。

必须设定人工智能技术的伦理要求

  人工智能是人类智能的延伸,也是人类价值系统的延伸。在其发展的过程中,应当包含对人类伦理价值的正确考量。设定人工智能技术的伦理要求,要依托于社会和公众对人工智能伦理的深入思考和广泛共识,并遵循一些共识原则:

  一是人类利益原则,即人工智能应以实现人类利益为终极目标。这一原则体现对人权的尊重、对人类和自然环境利益最大化以及降低技术风险和对社会的负面影响。在此原则下,政策和法律应致力于人工智能发展的外部社会环境的构建,推动对社会个体的人工智能伦理和安全意识教育,让社会警惕人工智能技术被滥用的风险。此外,还应该警惕人工智能系统作出与伦理道德偏差的决策。二是责任原则,即在技术开发和应用两方面都建立明确的责任体系,以便在技术层面可以对人工智能技术开发人员或部门问责,在应用层面可以建立合理的责任和赔偿体系。在责任原则下,在技术开发方面应遵循透明度原则;在技术应用方面则应当遵循权责一致原则。

为个人隐私提供更强有力的保护

  人工智能的近期发展是建立在大量数据的信息技术应用之上,不可避免地涉及到个人信息的合理使用问题,因此对于隐私应该有明确且可操作的定义。人工智能技术的发展也让侵犯个人隐私的行为更为便利,因此相关法律和标准应该为个人隐私提供更强有力的保护。

  此外,人工智能技术的发展使得政府对于公民个人数据信息的收集和使用更加便利。大量个人数据信息能够帮助政府各个部门更好地了解所服务的人群状态,确保个性化服务的机会和质量。但随之而来的是,政府部门和政府工作人员个人不恰当使用个人数据信息的风险和潜在的危害应当得到足够的重视。

  人工智能语境下的个人数据的获取和知情同意应该重新进行定义。首先,相关政策、法律和标准应直接对数据的收集和使用进行规制,而不能仅仅征得数据所有者的同意;其次,应当建立实用、可执行的、适应于不同使用场景的标准流程以供设计者和开发者保护数据来源的隐私;再次,对于利用人工智能可能推导出超过公民最初同意披露的信息的行为应该进行规制。最后,政策、法律和标准对于个人数据管理应该采取延伸式保护,鼓励发展相关技术,探索将算法工具作为个体在数字和现实世界中的代理人。

  上文所涉及的安全、伦理和隐私问题是人工智能发展面临的挑战。安全问题是让技术能够持续发展的前提。技术的发展给社会信任带来了风险,如何增加社会信任,让技术发展遵循伦理要求,特别是保障隐私不会被侵犯是亟需解决的问题。为此,需要制订合理的政策、法律、标准基础,并与国际社会协作。


 培训信息 

也可以直接点击网址访问


http://gk.chinaaet.com