新一代人工智能技术迅猛发展,并向社会各个L域加速渗透,这给经济和社会发展带来了新的变革性机遇,也给人类生产生活带来了深刻的变化。
科技伦理也成为了当前AI产业技术发展与产业应用中的“必答题”。
可信人工智能的核心原则是让AI应用满足可靠、安全、可解释、隐私保护、责任明确等条件,是落实AI治理的重要实践,其所遵循的可信特征与AI伦理和相关法律法规等要求一脉相承,均将以人为本作为其本质要求。
可信AI使用系统稳定技术、可解释增强技术、隐私保护技术、公平性技术等,促成AI的可靠可控、透明可释、数据保护、明确责任、多元包容,期望解决算法安全应用风险、“黑箱”风险、数据歧视风险、责任主体界定风险、隐私泄露风险等问题。
AI企业作为人工智能技术产品化的主体,在可信人工智能的发展实践中正发挥着日益积J的作用,谷歌、微软、百度、京东、旷视等一批国内外企业纷纷投身其中。
科技巨头们在可信人工智能上的投入除承担社会公益和行业引L的责任外,在AI商业化上面临越来越多的限制和挑战也是关键驱动因素。
以可信人工智能所包含的隐私保护为例,部分AI企业在接受监管机构上市问询时,被重点要求说明其技术、业务及产品中涉及到数据应用的具体环节,相关数据来源与合规性,以及保证数据合规的具体措施等。
这种自上而下的监管推动也将与企业内驱形成合力,共同推动可信人工智能的发展与实践,可信人工智能也将成为AI产业下一阶段发展的重点。
|