百度:AI伦理最高原则是完全可控
10月11日,2018小蛮腰科技大会在广州举行,本届大会聚焦人工智能产业化等前沿话题。新技术在发展的同时,经常面临安全等方面的隐忧与质疑。人工智能会失控吗?当自身出现安全漏洞是否能快速修复,实现真正的安全和可靠?
百度高级法律顾问张朝演讲。
在11日下午举行的“网络与数据安全峰会“上,百度方面分享了在AI时代的隐私保护探索。百度高级法律顾问张朝表示,“百度是一家以AI为战略的公司,AI的安全可信是百度的生命线。”
AI便利性和风险性并存
2017年被称为人工智能发展的“应用元年”。这一年,阿尔法狗战胜了人类围棋冠军,无人超市开店,百度无人车号称可以“吃着火锅唱着歌”。随着人工智能走进日常生活,一些以AI为发展战略的企业也开始思考技术可能带来的问题。
“AI时代人们最担心什么?第一是担心数据不安全,泄露,第二是担心数据滥用,第三担心数据给了企业之后数据就不可控。”在论坛的主旨演讲环节,百度高级法律顾问张朝如是说道。
她认为,AI便利性和风险性是并存的,在发展AI的同时不能忽视AI产生的新问题和潜在威胁,包括AI对人类发展的长期影响,对国家信息安全的影响,以及对社会信任和公平的影响。因此,公司需要自我规范,有清晰的边界意识和风险意识,对AI引发的新问题和威胁进行事先防范,让AI的发展建立在安全、可信、可控的基础之上。
据张朝介绍,百度内部要求AI业务的发展必须遵循AI伦理的四个原则:第一,AI的最高原则是安全可控。第二,AI的创新愿景是促进人类更加平等地获得技术能力。第三,AI存在的价值是要教人学习,让人成长,而不是取代人、超越人。第四,AI的终极理想是为人类带来更多的自由和可能。
让用户可以动态控制个人信息的应用场景
随着AI越加智能,所面临的隐私问题和挑战也越多,因为一方面AI的发展需要充分发挥数据价值,另一方面必须不断改善对用户隐私的保护。
整个隐私制度的再造过程中,企业面临着最大的挑战是每一个制度的结点都跟原先的业务流程可能是有冲突的,那么企业又该如何既保证处理结点为业务流程不产生重大的影响,又能将最大范围的把控风险?
张朝表示,这需要在隐私保护的价值观融入公司的方方面面,并通过组织、意识、流程制度、技术、产品系统实现隐私保护,目前百度也明晰了数据隐私价值观,即数据隐私保护,仅仅取得用户的同意远远不够,还需要让用户切实体验到隐私安全感和尊重感,在使用用户的个人信息时,还要让用户实实在在地获益。
具体而言,百度提出了隐私保护的三C原则:第一,要充分尊重用户,透明是尊重的前提,收集用户信息让用户可感知,取得用户的同意(consent);第二、要亲近用户,以用户易读、易懂的方式向用户阐释我们的收集、使用其个人信息的目的、规则、范围等让用户可以轻松理解我们隐私政策(communication);第三,要给予用户控制权(control),让用户可以动态控制个人信息的应用场景。同时数据的应用和安全防护策略需要同步规划,确保用户信息的安全。百度将以此为原则不断优化用户的隐私体验。
时间:2018-10-12 22:36 来源: 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
相关文章:
相关推荐:
网友评论: