我们暂且抛开技术实现层面的讨论,从输入和输出上去理解:ai就是使用大量的历史数据,训练算法,找到数据间的相关性,并在相对单一的、人类设置的目标和规则中对新数据的结果进行反馈。
比如ai美颜功能,就是将大批量被认为符合某种审美的照片作为数据,再将你的照片与之对齐。它的目标是符合大众审美,规则是大众审美。
再比如ai炒股,目标是盈利,规则是股民买卖股票的习惯。
这里面有两点基本前提:
1. 输入的历史数据可以预测未来
2.规则不会剧烈变化
那么如果数据来源有偏见,ai反馈的结果相应就会有问题,比如中国的ai美颜软件会把外国人p得更像亚洲人,美国的ai修图软件会把人还原得更具有白人特点。
同样如果发生了黑天鹅事件,那么在股市里的交易策略就与平时大相径庭,ai对这样变化的反应是不能被信任的。
选择的数据,和与其对应的规则,某种程度上就已经导致了目标的确定和局限。所以不应该问AI为什么存在偏见,因为AI本就是偏见的结果,只不过人类的价值观对某些特征更为敏感而已。
如果大家熟悉Persona(用户画像),会对这个观点有更深的理解。在绘制用户画像时,并不是针对某一个个体,因为理解特定个体的逻辑并无助于理解用户需求,或者说绝大部分产品并不是为某个人而是为某类人设计的。设计师会选择将这类人抽象成用户画像,并把他们的共性,无论是逻辑上还是身份特征上进行联系,比如商务白领会比其他人每天多消费2-3杯咖啡,这样的结论本身就是偏见,但在特定的上下文里,可以被当做当做事实使用。
本质上AI是在使用超越人类处理能力,更多维度的数据,形成类似的、概率性的判断。
网友评论