【Smashing专栏】怎样创建诚实的UI,帮用户更好地进行决策

现在的很多应用,比如 Google Now、Spotify 、亚马逊,都会根据个人数据推断用户喜好,甚至在用户没有输入信息时也能帮你做出决定。比如 Facebook 的定制信息流,亚马逊会的推荐商品,它们都会隐藏“不相关”的信息,只展示他们预测你喜欢的。

这种去掉用户选择的设计模式称为“预期设计”(Anticipatory Design),其目标是在用户界面上利用用户行为数据自动做出决策,从而减少用户决策次数,减轻过度决策的负担,提升整体决策的过程的体验。

尽管预期设计目的是好的,但自动化决策可能会暗藏信任问题,特别是用户的信任被“暗黑模式”消磨之后,信任问题会更加突出。因此本文会站在欺骗用户的“暗黑模式”对立面,讨论“光明”的决策模式,确保UI诚实透明,让人们对做出的决策有放心,甚至会推动用户为自己做出更好的决定。

1. 为什么要替用户做决定

当今网络世界中,消费者面临前所未有的大量选择。比如在亚马逊和eBay购物时,即使确定了要买什么,比如更换苹果耳机,还是会有海量的结果:

在亚马逊和eBay购物时海量的选择

另一个例子是“吃到饱”的音乐服务,比如 Spotify 把大量的音乐放到指尖,还不用付额外的费用,额外的选择很快就出现了。

虽然选择多了更受欢迎,但太多就令人生畏了,因为选择越多做决定越难。这个问题之前已经得到了广泛的重视,最著名的是巴里•施瓦茨(Barry Shwartz)的选择悖论和希克定律:

巴里•施瓦茨(Barry Shwartz)的选择悖论

“太多选项会导致不愿选择,也会降低做决定的满足感。”

希克定律

“每增加一个选项就增加了决定所需的时间。”

两项研究都表明,通过减少用户界面中的选择量,可以提高用户做决策的能力,从而减少挫折感,让用户体验更好。

有关“决策疲劳”的文章也印证了这一观点。文章指出生活中大量的决策可能会导致做重要决策时效率降低。这也就是马克•扎克伯格每天都穿相同风格衣服的原因:

“除了如何更好地服务社会外,我希望我的生活中需要做决定的事情越少越好。”

2. 如何减少选择数量

现在,减少用户的选择数量已经成为很多应用程序的焦点了。有很多方法可以做到,今天我们主要讨论两种。

2.1 让选项更相关

很多产品是根据个人喜好个性化显示的,只有相关的用户会出现。亚马逊根据收集的客户数据,为用户定制网站界面和推销邮件。

亚马逊的个性推荐

2.2 预测决策

上述的个性化推荐可能不足以减少选择的难度,虽然已经过滤,但是用户仍有很多选项。产品可以更进一步,帮用户做出决定,完全消除选择的负担。

例如 Google Now 这类的应用程序越来越多地为用户执行操作,无需用户直接输入。

Google Now 的预期设计

Google Now 在后台做了很多决策,比如找出你将车停在哪里、自动搜索足球比分,并在合适的时间通知你,你都不用先问。

Google Now: What you need, before you ask.

另一种实现方式,Spotify 不用动手就为用户创建一个播放列表。正如公告中说的:

就像一个老友,每星期帮你录一份个性化的合集。

Spotify 的 Discover Weekly,个性化的播放列表

搜索音乐并决定哪些加到播放列表已经在背后完成。

这种为用户做出决策的概念被称为“预期设计”,替用户决策所涉及的伦理问题而成为一个争议的话题。

3. 为预期设计建立信任

上述减少决策和替用户做决定的过程,可能会被指责不够准确。如果应用程序没有执行用户希望的操作,可能会造成信任问题。已经有许多应用程序被爆出来使用暗黑模式,欺骗用户做出不想做的事。

因此,为了让用户信任,应用程序为用户做的决定越多,越应该保持透明。这可以通过“光明模式”实现,也就是让用户始终感知到,也能控制到。下面我们研究一些“光明模式”。

3.1 免限制信息

向用户展示个性化系统过滤后的内容,会造成一个问题,用户会不断看到相同类型的内容。

亚马逊根据浏览历史的推荐

这让其他类型的内容很难被发现。不仅是亚马逊这类的购物网站,Facebook等社交网站也是如此。时代杂志指出: Facebook 为点链接多的人展示更多链接,给看视频多的人展示更多视频。

许多用户不满意这点,他们不希望由别人决定看到什么。比如 Stack Overflow 的 CEO Joel Spolsky 指责 Facebook 隐藏信息。

Facebook 没有展示全部帖子,它挑选内容给你看。这样就有一个问题 Facebook 多大程度上强化了你的成见?因为这种算法就是用来做这个的。

3.2 给用户控制权

避免信息隔绝的一个方法是通过反馈机制改进算法。

有的反馈方式很明显,有的不那么明显。

Google、Facebook 、亚马逊的反馈机制

• Google Now(左上角)会提示用户直接在其即时贴下面选择信息是否相关。

• Facebook(右上)隐藏略深,每个消息右上角有个下拉按钮,单击后展示选项,可以隐藏不想看到的新闻。

• 亚马逊(下方)则很难更改推荐内容。你需要导航到“我的账户”→“为我推荐”→“改善为我推荐”来调整。

Google Now:尽在掌握 (You’re in control.)

除了滑动卡片,还可以在每个卡片的菜单中访问自定义设置。

定制 Google Now

Joel Spolsky 发现,即使 Facebook 和亚马逊给用户反馈机制,低层的新闻摘要和推荐算法也有更大的控制权。

3.3 不要把广告伪装成内容

将广告伪装成内容是一种常见的暗黑模式,用户没有明确的同意的情况下,就会发生这种事。

例如,Google Now 最近与 Lyft、Airbnb、Uber、Instacart 等品牌合作,在需要的时候向用户提供这些服务。虽然来自第三方的服务可能很有用,但服务需要付费的时候,这就算是一种广告了。

Google Now 第三方服务

相关产品这类设计更常见这种暗黑设计,推荐产品的动机变得更可疑。Google 地图就是一例,将广告伪装成搜索结果的图钉。

Google 地图把广告伪装成图钉

3.4 使用用户的输入

预期用户行为最重要的就是准确。一个经过验证可行的方法就是使用用户以前的输入,比如浏览器填充表单,或者记住信用卡信息和密码等。

Chrome 浏览器自动填充表单

这样可以节省用户的重复输入。做更复杂的预测时也可以使用相同的原则来组合多重数据。Campaign Live 研究了 Google Now 中的 Hailo 租车服务,根据时间、位置以及用户之前的输入帮用户预定出租车。

假设你来到伦敦,预定了一辆 Hailo 出租车,在上午7点到10点来到一个区域。如果下午5点你还在那里,Google Now 会假设你可能想离开,就会提示你预定出租车。

这种情况的预测可能更准确,并且似乎不算是广告,因为用户在之前已经用过相同的租车服务。

根据相关的动作出现 Hailo 租车卡片

3.5 让用户有权退出

尽管能定制个性化建议,有时候人们不希望应用程序帮自己做决定。这时用户应该方便退出。虽然不能删除 Google Now,但是可以在设置中选择停用 Now card。

Google Now 允许用户停用 Now cards

相比之下,亚马逊没办法关闭推荐商品,除非完全注销账户。这也是有道理的,根据Venture Beat 统计,亚马逊 35% 的商品销售都是推荐的结果。

因此,记录和使用用户数据的功能是否应该默认开启就是个问题了。主动选择和假定同意有很大的区别,比如使用了暗黑模式的器官捐赠案例:

器官捐赠的案例,主动选择与假定同意的显著差异

基本上,默认选中时,同意捐赠器官者接近 100%;如果不假设用户同意的话,同意百分比是非常低的。

4. 用暗黑模式帮助人

很明显公司会利用暗黑模式满足自己的利益,而且利用一些工具让企业替表用户做决定变得更容易了。然而, 如果同样的方法可以帮助人为自己做出更好的决策呢?现在很多人做出错误的决定是由于人性的弱点,比如缺少自制力或者过于关注短期利益。

4.1 推动做出正确的决策

在《助推》这本书中,理查德•泰勒和卡斯•桑斯坦提出建立一种从长远来看对用户最佳的“选择架构”。

《助推:如何做出有关健康、财富与幸福的最佳决策》

暗黑模式中使用的技术也可以用到光明模式中,助推用户做出更好的选择。

4.2 默认加入

例如随着预期寿命的增强,人们通过诸如美国401(K)这样的养老金计划来养老。然而正如理查德•泰勒和卡斯•桑斯坦所说,尽管这些计划提供了“免费资金”,但许多人仍然不选择注册。他们建议这样做帮助人为自己的晚年攒钱:

• 默认登记(类似于器官捐赠的例子);

• 强迫用户做出是或否的简单选择。

这些方法算是光明模式,因为它们有利于用户,推动他们采取行动并做出长远的决定。即使后一种方法是在强迫做决定,但简化成了简单的二选一,是在鼓励人们参与。

4.3 创建良好的行为模式

Alan Shapiro 指出,带有预期的应用程序不断地建议去哪里、买什么,人们的决策可能真的会受影响。

这可能会导致一些可怕的情况,例如一家销售公司可能会向你灌输倾向于冲动消费的行为。例如亚马逊的 Prime pantry 服务就是这种阴暗的模式,它鼓励人们购买更多的东西。

亚马逊的 Pantry Box 鼓励购买行为

正如 Circadia 的产品负责人 Matt Crowley 所说:

亚马逊已经从“我需要这个吗?”转向“我还需要什么才能填满这个盒子?”

亚马逊甚至已经提交了一份专利,利用用户数据,在下单前就预先送货。亚马逊称之为“预期递送”(anticipatory shipping)。

亚马逊的预期递送专利图解

把这些动机放到一边,如果使用相同的策略帮助人们实现良好的行为习惯呢?现在有很多自我完善、习惯养成的应用程序。

例如 stickK 通过使用“厌恶损失的心理力量和责任感驱动”来帮助改掉坏习惯。

stickK 帮用户改掉坏习惯

Duolingo 每天提醒你学新语言,帮你养成好习惯。

duolingo 帮助养成学外语的习惯

从上面我们可以看到,在anticipatory design中,用户从中获得的好处很大程度上取决于应用程序背后企业的道德准则。企业利用数据多少是为了自己的目的,用户为了方便会出卖多少隐私数据?

综上所述,给用户控制权和保持透明度是维持信任的关键。你对anticipatory design的暗黑模式有什么看法?光明模式真的存在吗,谁控制着设计的目的?

本文由Smashing Magazine独家授权异步社区发布简体中文版。版权所有 禁止转载或建立镜像。