为人工智能注入更多安全基因
【背景链接】
大数据杀熟、技术黑箱、算法偏见等专业名词,正在随着人工智能的普及引来人们的关注。随着人工智能技术的快速发展和广泛应用,技术伦理问题开始从幕后走到台前,成为人工智能研究发展的重要议题。
2019年8月发布的《人工智能安全与法治导则(2019)》,从算法安全、数据安全、知识产权、社会就业和法律责任等五大方面,对人工智能发展的风险提出安全与法治应对策略。这是人工智能行业对于社会诉求的一种积极回应,也是行业对于自身技术发展安全性的一次深刻思考。
【解读】
【提出观点】
安全性作为其技术发展的考量标准,为人工智能注入更多的人文与安全基因,才能推动人工智能向安全、可靠、可控的方向发展。
【综合分析】
放眼当下,借助人工智能,企业赋予每个用户的偏好和行为以大量数据标签,摸透用户甚至超过用户对自己的了解;在社交媒体中,人工智能将观点相近的内容反复推荐给用户,逐步加剧偏见强化;通过对海量数据的挖掘,不同的消费者购买同一件商品的价格不同,有被“杀熟”之嫌……人工智能技术的商业化,带来了技术滥用、信息安全等问题。可以说,随着人工智能技术的飞跃,“智慧大爆发”带来的工具伦理性问题一直未被解决,进而造成个人隐私泄露、法律伦理困境。如何确保安全、合理地使用人工智能,亟待整个社会求解。
智能时代的大幕正在拉开,“人工智能+教育”“人工智能+医疗”“人工智能+媒体”……不断打破着各个行业的发展瓶颈,重塑着不同产业的生产模式,更是给人类社会的发展拓展了更多的智慧空间。也许,技术的不断革新可以破解现存的“技术黑箱”,但人工智能的发展必须始终坚持的是,把安全性作为其技术发展的考量标准,把握商业价值和人文价值的统一,把握市场伦理和技术伦理的统一。为人工智能注入更多的人文与安全基因,才能推动人工智能向安全、可靠、可控的方向发展。
【对策措施】
实现技术可用、可靠、可知、可控,首先要在人工智能的商业考量中注入更多的人文关怀。必须明确的是,利用技术的主体和收益方应是人本身。发挥技术优势去弥补行业短板,理应明确人的主体地位,让人工智能在商业价值与人文价值中求得平衡。
同时,更要让人工智能处在一个公平、安全的市场伦理下发展。技术应当存在伦理边界,技术发展和市场伦理的底线就是公平和安全。一方面,新的产品和技术应当经过严格的测试和验证,确保其性能达到合理预期;另一方面新技术的发展应确保数字网络、人身财产以及社会发展的安全。
提供全国公务员考试资讯
2、厚职网www.houzhiwang.com提供的以上信息仅供参考,如有异议,请考生以权威部门公布的内容为准!
3、更多事业单位招聘信息访问