栏目导航

高手论坛

守住产品底线,防备人工智能作恶

更新时间: 2021-01-08

活动中,腾讯科学技术协会秘书长张谦表示,面对AI技术所引起的风险问题,首先应该关注的是守住AI产品底线,即避免技术作恶。

除了守住底线,与会者还提到,要厘清边界,领导技术向善。

“AI技术的风险管理需要科技工作者、企业治理者、政策制定者、相关法律专家以及投资人多方尽力。”中科院计算所研讨员山世光说。

星界资本管理合伙人方远认为,各大中心数据平台处于AI风险管理的重要地位,“在互联网和大数据时期,大平台是数据的采集者也是守护者。务必要对数据使用权做出清楚界定,tk180深圳护民图库,这对全部社会的AI发展有重要意思”。

2020年新冠肺炎疫情期间,英国用套算法得出学生成就,成果近40%的学天生绩低于老师的预估分数,导致良多学生与名校失之交臂。山世光说,有些人工智能模型或数据模型不斟酌到社会公正、上风累计恶果,导致看起来运算进程很谨严、结果很准,但却并不足以支撑AI做出科学决策。

谈及AI标准化的实际,中国国民大学法学院副传授、未来法治研究院社会责任和管理核心主任郭锐提到两个原则——人的基本好处原则和责任准则,“这两个原则的主旨是让AI的决策和举动尽可能通过人的干涉来防止对人的损害”。

“徒法不足以自行。”郭锐坦言,法律自身也存在局限,躲避AI技术潜在风险,需管理者对AI技术有透辟的懂得,这样才干对其进行有效管制,“法律是树立容纳性社会的主要工具,法律界要和企业、技术等方面专家配合,这样通过法律来对AI技术进行管理束缚的目的能力达成。”

有专家表现,这并非AI技术的错。夏华夏说,真正应承当社会义务的是应用AI技术的人、企业等。AI技术向善需要社会整体文化发展到必定阶段,构成良好气氛。张谦则提到,技术并不恐怖,能够通过技术进步发展解决技术存在的问题。

厘清边界详细包括AI需要明确它会什么、不会什么,以及人需要清楚AI什么事能做、什么事不能做等问题。崔鹏认为,如不厘清边界,AI还会犯更多初级过错,带来更大风险。

◎实习记者 代小佩

山世光称:“说到底,咱们仍是盼望AI技巧能得到健康发展,满意对科技真、善、美的寻求。”

在这方面,美团首席科学家夏华夏以为,法律法规方面须要做大批工作,包含制订AI行业的尺度、标准,以及从国度层面完美、出台相关法律法规,从而对AI技术发展进行把控。

崔鹏指出,犯错并非AI特有的危险,人也会犯错。“但人犯错大多数可控、可预测。而目前AI技术犯错的话是不可猜测的,或者犯错后人们会发明其出错机制是无奈从技术层面说明的。这波及到AI在决议跟行动上的边界问题,手机马会最快开奖成果确顾全面小康路上一个不少一户不落有的已结。”

郭锐认为,目前AI碰到的伦理问题,实际上是由于它远未到达人类智能的水平,却已被赋予为人类做决策的责任,“还有人把AI技术当作借口,用科学的名义做不合乎伦理的决策,这样做是错误的。需要人决策的处所应当由人决策”。

“未来10—20年,AI技术将浸透至与人类亲密相干的范畴,比方医疗、司法、出产、金融科技等风险敏感型领域,AI技术假如犯错,就会造成较大体系风险。”2020年12月29日,在将来迷信大奖周举行的“青年对话”运动中,清华大学盘算机系长聘副教学、中国科协全国委员会委员崔鹏说。

【编纂:王诗尧】