本篇文章1711字,读完约4分钟
几个月前,硅谷的一位高级投资者开始了一项实验:他整理了facebook和谷歌分别持有的关于他的所有数据,然后进行比较。
他对谷歌拥有的信息是脸书的几倍的结论感到震惊。当我们在旧金山吃早餐时,他告诉我:“结果太惊人了。”“为什么没人讨论这个问题?”
这是一个有趣的问题,尤其是当你像我一样一天使用谷歌服务很多次的时候。一个答案可能是谷歌高管擅长建立政治支持网络。另一个答案是,谷歌掌握自己收集的这些数据,然后利用这些数据创建有针对性的搜索和广告服务,这些服务可以为用户定制。Facebook让第三方开发者获得它的数据,这是公众愤怒的原因。
这种差异可能会让谷歌听起来更友好,但这是否意味着我们可以放松?罗伯特是加州美国行为研究和科学技术研究所的心理学家。罗伯特.爱泼斯坦不这么认为。近年来,他与心理学家和数据科学家一起对谷歌的“搜索”或“自动完成”功能进行了大量研究。这让他相信搜索引擎可以以一种非常强大且几乎不为人知的方式影响我们的思维。
搜索引擎能够从人们在搜索框中输入的第一个字符开始操纵人们的搜索。搜索引擎公司操纵选举的一个简单但强大的方法是减少对他们支持的候选人的负面搜索建议,并对其他候选人给出一个或多个负面搜索建议。
爱泼斯坦的团队邀请了661名美国人在澳大利亚选举中从两位候选人中选择一位。因为参与者对澳大利亚政治了解不多,他们被要求使用谷歌式的搜索引擎来搜索两位候选人。当输入单词时,搜索引擎会为自动完成提供通常的建议。
然而,研究人员也改变了出现在候选人名字下的搜索建议,包括一系列积极和消极的词。结果显而易见。当参与者后来被问及他们的投票偏好时,他们的回答显示,改变自动完成建议中正面和负面建议的比例可以改变犹豫不决的投票者的偏好近80%,尽管参与者似乎可以自由地搜索他们想要的任何信息。另一项研究发现,当参与者只得到四种自动完成建议时,它们很容易被操纵;当有10条建议可供选择时,它们不容易被操纵。
这些结果并不能证明谷歌(或任何其他搜索引擎公司,如必应或雅虎)利用这种能力来操纵用户。但是爱泼斯坦的论文强调了一些他认为奇怪的模式。他的团队发现,如果你在谷歌搜索引擎中输入谷歌竞争对手的名字,然后输入“是”,像“雅虎已死”或“必应是垃圾”这样的词可能会出现在自动完成框中。据爱泼斯坦称,同样的情况并没有出现在雅虎或必应自己的搜索引擎中。
另一个引人注目的模式出现在2016年8月。当时,当在谷歌搜索引擎中键入“希拉里·克林顿”时,自动完成建议提供的词语包括“希拉里·克林顿赢了”(希拉里·克林顿?克林顿会赢);在雅虎或必应,自动完成的建议显示“希拉里克林顿是个骗子”(希拉里克林顿?克林顿是个骗子)而希拉里·克林顿是个罪犯(希拉里·克林顿?克林顿是个罪犯。
谷歌高管表示,出现这些不同的自动建议模式,是因为该公司的政策之一是消除令人不快的自动预测。公司主管丹尼?Danny sullivan上个月在一篇博文中写道:“谷歌已经删除了那些违反我们自动完成策略的预测。”这些政策禁止...基于种族、宗教或其他人口特征。对团体和个人的恶意预测。”
他们还强烈否认他们试图用自动完成工具操纵用户。他们说,爱泼斯坦的研究基于小样本,使用谷歌风格的搜索引擎,而不是谷歌自己的数据。在2015年对爱泼斯坦的一些研究发表的罕见的官方评论中,高管们表示:“谷歌从未对任何主题(包括选举)的搜索结果进行重新排序,以操纵用户情绪。”
除此之外,这项研究应该让我们思考如何使用“自动完成”功能。自动预测做得越好,用户懒洋洋地被吸进数字“回声室”的潜在风险就越高。爱泼斯坦认为有一个简单的解决方案。他认为搜索引擎应该在他们的网站上附上一个简单的“健康警告”关于“回音室”和操纵的危险,以减少可能的风险。
不管你是否接受爱泼斯坦的研究,这似乎是个好主意。但不要指望这种情况会很快发生,除非更多的消费者和监管者像在硅谷与我共进早餐的人那样做:看看所有大型科技公司持有的关于我们的数据,从facebook开始,但不仅仅是facebook。(英国《金融时报》专栏作家吉利恩?戴娣,翻译/尚)
欢迎关注锡克教,随时查看我们的最新消息。
标题:搜索引擎是否在操纵我们的思维?
地址:http://www.hhhtmd.com/hqzx/16480.html