本报综合外媒报导加拿大康考迪亚大学官网克日报导称,该校学者尼哈·楚格(Neha Chugh)研讨以为,将人工智能应用于加拿大刑事司法体系为时尚早,由于今朝还没有充足的步伐应对机械和人类的成见题目。最新一期《IEEE技能取社会杂志》刊发了楚格的新研讨《风险评价东西拷问:人工智能体系的往取留》。
现正在,人工智能技术被遍及应适用于各类范畴,包孕刑事司法体系。正在美国审前法式的风险评价中,算法和数据越来越多地被适用于评价被告再犯法的风险。支持者以为,人工智能能够防止警员、法官或检察官等刑事司法人员的固有私见。楚格对这类说法提出了质疑。她正在论文中提出,只管人工智能风险评价还没有应适用于加拿大法院,但已泛起了一些危险旌旗灯号,有些题目急需司法体系处理。她示意,正在刑事司法体系中,原住民被告的比例太高,致使其更简单受到数据驱动性东西缺点的危害。
楚格以为,风险评价东西普遍存在题目,如埃沃刻诉加拿大案(Ewert v.Canada)。杰弗里·埃沃刻(Jeffrey Ewert)是“梅蒂人”,即怙恃一方为加拿大原住民,另外一方为欧裔,他因行刺和行刺未遂而被判毕生扣留。埃沃刻宣称加拿大惩戒署的心理风险评价体系对原住民有文化私见,使原住民刑期远超非原住民,且服刑前提更差。最终,埃沃刻在最高法院申诉胜利。
楚格暗示,成见取轻视的存正在误导了评价东西,那末若何确保算法终极得出精确的成果?利用人工智能开展风险评价只是将成见由人类转移到人类制造的算法中而已,有误差的数据信息库只会让算法得出有误差的成果。功令和法例为法官的事情给予了必然的空间,并为思索小我私家汗青和特殊情况等因素保留了余地。过分依靠人工智能开展风险评价的重要题目之一,正在于缺失主观判定和尊敬。楚格夸大,她其实不阻挡正在法院系统中利用人工智能,但对此还需求进一步的研讨。比方,需求剖析算法所采纳的信息,和人们的成见对成果的危害等。