此外,在AI面前,我们都是赤裸的“工具人”,AI算法隐含的伦理问题不容忽视。首先,AI能否守护好求职者的隐私,即信息安全问题,这值得注意。如果信息保护措施不健全,那么AI有可能成为信息犯罪的凭借,盗用他人信息、侵犯他人权益。其次,算法自身也有“偏见”,亚马逊机器学习专家曾发现他们的AI面试官在筛选简历阶段,存在“重男轻女”的明显倾向。造成这一问题的原因是人工智能训练样本的问题。在开发岗位识别模型的过程中,亚马逊输入的是过去10年的简历数据库,其中大部分求职者为男性,女性相关数据太少。因此AI误以为没有特定关键词的女性简历不那么重要,从而给予了较差的推荐评价。
最后,AI面试官的算法一旦被“破译”,或者成了某种固定标准被奉为圭臬,最终尴尬的是用人单位。既然AI有固定标准和程序,那也就意味着求职者如果事先进行一番攻略,也能够按照固定套路进行练习,采用流水线式的话术、八颗牙式微笑通过筛选。随着样本的迭代,如此套路也许会成为AI面试官的经典“模板”,掉入算法陷阱,最终受困的是用人单位。
由是观之,数字化大潮下AI面试官们正跃跃欲试,亟待升级。未来,企业要想顺应潮流,仍需张开双臂拥抱AI。这既呼唤相关政策的完善,也需要算法的不断优化以拉近与人之间的距离。未来,“AI+企业+人”的美好图景我们拭目以待。