人工智能可以开辟性别平等的时代吗?

   2020-09-01 中国机器人网中国铸造网1410
核心提示:  试想一个性别平等的社会:女人不是生孩子、养孩子的工具,男人不是传统思想上的统治者。人们在这个平等
   试想一个性别平等的社会:女人不是生孩子、养孩子的工具,男人不是传统思想上的统治者。人们在这个平等的社会中,扮演的角色是和他们的智慧和兴趣一致的,而不是由性别、根深蒂固的狭隘观点驱使的。
人工智能可以开辟性别平等的时代吗?
  这样的社会目前还不存在。几年前,Malala Yousafzai这位巴基斯坦的、以争取女性教育而闻名的女子,还因为想要争取自己的教育而几乎失去了生命!她的故事并不特殊,女性为了进入主流的声音,已经奋斗了数百年了。
 
  是的,对待性别平等这个问题,部分国家已经比较先进和发达了。但是,即使在最先进的环境中,深刻的偏差还是存在的。那么,有没有什么方法能重新设计一些由结果驱动的社会规范,而不是由固有的人类偏见驱使的社会规范呢?
 
  人工智能也许就能打破数千年来的、根深蒂固的社会偏见。现在的技术,可以创造一种使用深度学习和数据驱动的技术,来纠正刻板印象的机制吗?
 
  深度学习的软件,试图模仿人脑的大脑活动,在大脑皮层发生思考。这个软件学习识别声音、图像和其他数据。Ray Kurzweil通过软件技术,写了一本名为《如何创造心灵》的书。深度学习的目的是在机器层面重建人类智慧,然而,这种学习的结果取决于软件的训练程度,有偏见的训练会导致偏倚的结果。
 
  继续说我们的这个实验,让我们来看看一个简单的工作场所中的例子:在会议室,出现了一些性别歧视的言论。
人工智能可以开辟性别平等的时代吗?
  我们想要的结果是:有人举起手来,并阻止这样的言论。在这个简单的例子中,期望的结果在很大程度上取决于两个主要的假设:1)会议室中至少有一位女性 2)公司的文化氛围是能让她自由地表达她的观点。
 
  如果这种情况是由人工智能技术的机器人处理,那么机器人必须对基本假设进行训练。不良的训练会导致不佳的结果。当机器人接收到性别歧视的输入时,它需要了解上下文,运用透视图,然后进行相应的操作。如果机器人没有被编入女性的观点,那么它就没法达到我们预期的结果。
 
  技术公司的环境中,人工智能算法经过培训和测试,因为女性任职人数不足,缺乏对这种偏见的认识。计算机专业毕业的女性只有大约16%,再加上那些根深蒂固的文化和工作态度,对偏见的认识就更加不足了。
 
  幸运的是,与人类的偏见不同,人工智能的偏差,能通过重新编程机器人的软件来更正。为了排除偏见,这些行为应该根据“平等、公平”的原则来分类。就看我们如何训练和测试我们的数据算法、增加实现这种愿景的可能性了。未来,我们的算法,能在性别和文化的框架中,处理数据、纠正机器人的行为、模仿理想的人类语言和观念!
 
  也许在不久的将来,人工智能会成为我们生活中无处不在的东西,深入保健、行为经济学、政治等多种多样的领域。为了达到这样的未来,我们也需要各界人士的帮助,不止是程序员,还有从事医疗保健、人类学、经济学、金融等方面的专业人士。
 
  越来越多的人已经意识到:技术对于创造一个没有偏见的世界,是非常有潜力的。正如Malala倡导“女孩应该接受平等的教育”一样,将会有更多的倡导者会为之奋斗,建造一个性别平等的社会。
只要你关注机器人,你就无法错过睿慕课
 
举报 收藏 打赏 评论 0
 
更多>同类资讯
推荐图文
【2025泰国压铸业考察团】泰国新能源汽车产业链深度考察之旅(6.18-21 日)—— 抢占东南亚千亿市场先机!】 压铸要闻速览|技术突破、政策动态、企业大事件全掌握!
【泰国压铸业考察团,欲报从速!】2025泰国新能源汽车产业链深度考察之旅(6.18-21 日)—— 抢占东南亚千亿市场先机! 【2025泰国压铸业考察团】泰国新能源汽车产业链深度考察之旅(6.18-21 日)—— 抢占东南亚千亿市场先机!
推荐资讯
点击排行
网站首页  |  付款方式  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报 营业执照  |  粤ICP备18059797号-1
×