据有关媒体报道,在谷歌研究自然语言处理的科学家 Daphne Luong 表示,正确地校准标签对机器学习来说非常关键,有些数据集其实并不平衡,像维基百科上的数据,“他”(He)出现的次数远比“她”(She)要多 。
王金桥也着重强调了“数据的均衡” 。 就算对人来说,不同人秉持着不同的价值观,但多听多看多受教育可以让人向良好的方向改进 。 机器学习也是如此 。 “训练机器时,要注重数据的均衡,给它更多可靠的数据 。 研究团队成员具有多元的学术背景(如吸纳更多社会学、心理学等领域学者加入)、性别、年龄、价值观,也可以帮助机器学习更加均衡,减少机器出现偏见、谬误甚至失控的可能 。 ”王金桥说 。
“机器学习的模型本身也要有一定的防攻击能力,从技术上防止本身结构设计的漏洞被攻击,研究者可以使用各种数据攻击机器,训练机器的反攻击能力 。 ”王金桥说 。
作恶还是向善,是人类的选择
1942年,阿西莫夫在短篇小说《环舞》中首次提出著名的机器人三定律:机器人不得伤害人类,或因不作为使人类受到伤害;除非违背第一定律,机器人必须服从人类的命令;除非违背第一及第二定律,机器人必须保护自己 。 半个多世纪过去,人工智能在大数据的加持下迎来爆发式发展 。 某些专用型人工智能把人类智能甩在身后,人们开始担忧,机器伤害人类的那一天是不是不远了 。
因此有一种看法很主流——人类训练有意识、有自我觉知的人工智能是不明智的 。 开个脑洞,机器一旦发展出自我意识,要反向攻击人类,场面或许失控 。
前段时间,据路透社报道,韩国科学技术院的人工智能研发中心正在研发适用于作战指挥、目标追踪和无人水下交通等领域的人工智能技术,希望在今年年底前研发出基于人工智能的导弹、潜艇和四轴飞行器 。 此事引发学术界的巨大震动,抗议纷至沓来,并最终以院长保证无意于“杀手机器人”的研发并重申人类尊严和伦理收场 。 在美国,以“不作恶”为纲的谷歌也因与国防部的合作协议涉及“Maven项目”被推上风口浪尖,反对者普遍认为,识别结果完全有可能被用于军事用途,比如说精准打击 。 谷歌最终表示终结协议 。
相较于舆论环境的忧心忡忡,研究者对“技术向善”普遍乐观 。 他们认为把AI和“杀人机器”联系在一起,近乎“捧杀”,夸大AI能力之余,也引发不明真相的公众恐慌,无益于人工智能的发展环境 。
“很多人提到AI总是一惊一乍,把AI说成超人 。 我相信人工智能是能解决问题的,但大家的期待也要在合理范围内 。 人和机器各有优势,技术会服务于特定场景,但也不需要把AI捧上天 。 ”接受科技日报采访人员采访时,思必驰北京研发院院长初敏博士忍不住“抱怨”了一下 。 看来“我们需要怎样的AI”这一题,大家都还没有答案 。
推荐阅读
- 一大批“机器劳动者”来袭,让人想偷懒
- 智解风云变幻:中国气象踏响“现代化节拍”
- 日媒:中韩日欧的家用机器人“百花齐放”
- 机器人、3D打印:看科技与医疗如何“擦出火花”
- 智能汽车“驶向”现实,还要再闯几道关?
- 国产工业机器人有点“笨” 算法如何精益求精?
- 世界上最“倒霉”的机器人出现 价值30万元
- 谁为大王为此计者是什么句式
- 人脸识别突飞猛进 更要看好“我们的脸”
- 谁言寸草心的言什么意思
