层楼

Write codes that work and speak

0%

【译】60年来首次出现的新用户界面范式:人工智能

译自:AI: First New UI Paradigm in 60 Years

摘要:人工智能正在引入计算机历史上的第三种用户界面范式,从而转向一种新的交互范式。在这种范式中,用户告诉计算机他们想要什么,而不是如何做,这翻转了控制的角色。

ChatGPT和其他人工智能系统,正在塑造计算史上第三种用户界面范式,这是近60年以来首次出现的新交互范式。

pic1

前两种交互范式

范式一:批处理

从1945年计算机诞生开始,第一种用户界面范式是批处理。在这个范式中,用户指定他们希望计算机完成的全部工作流程。这样的一批指令(往往是一叠打好孔的卡片)被提交给数据中心,不知道要等到什么时候开始运行,通常是晚上。

然后,一般在第二天早上,用户能拿到他们批处理的输出结果:通常是一叠厚厚的打印的输出,也可能是一叠新的打孔卡片。原来的批处理中哪怕有一丁点错误,就不会有输出,或者输出的结果毫无意义。

从用户界面的角度来看,批处理不涉及用户和计算机之间的任何交互。用户界面,也就是唯一有连接的地方是:那叠打孔卡片。这样导致系统的可用性极差,通常要花很多天来调整批处理的卡片,确保这叠卡片能够产生想要的最终结果。

范式二:基于命令的交互设计

大约在1964年,分时操作系统(多个用户通过终端连接共享一台大型计算机)的出现引入了第二种用户界面范式:基于命令的交互。在这种范式中,用户和计算机会有来有回,一次执行一条命令。这种范式非常强大,从它诞生以来一直主导着计算机领域,到今天已经超过60年。

基于命令的交互设计,一直是近三代用户界面技术的底层逻辑:命令行界面(如DOS和Unix)、全屏文本终端(在IBM大型计算机上更常见)和图形用户界面(GUI:Mac、Windows和当前的所有智能手机等)。可以说是一种非常强大且持久的范式。

和批处理相比,基于命令交互的优点非常明显:每执行完一条命令,用户都可以重新评估情况,修改后续的命令,朝着期望的目标前进。

事实上,用户甚至不需要预先定好目标。随着计算机提供更多信息,用户看到命令执行的结果后,可以随时调整解决问题的方法(至少重视状态可见性的系统设计是这样的)。早期的命令行系统一般不会展示当前状态,这使得可用性很差。比如在Unix中,没有消息才是好消息,只有当你的命令执行出错时,你才会收到反馈。没有出错的话,计算机就不会反馈状态,这让用户很难确定接下来的操作。

图形用户界面(如果设计的没问题),会在每个命令后反馈状态。从1984年Macintosh面世以来,图形用户界面统治了用户体验设计将近40年。不过现在可能被下一代用户界面技术代替:以人工智能形式呈现的交互范式。

新范式

范式三:基于意图的结果范式

我觉得当下流行的这套生成式AI工具(ChatGPT,Bard等)不能代表我们将来会使用的用户界面。因为它们的可用性还有一些明显的问题。这些问题似乎还造就了一个新职业:提示工程师。提示工程师的职责是引导gpt走到正确的路上,给出正确的答案。

这种新职业让我想到了过去,我们曾经需要一些经过特殊培训的搜索专家,搜索大量的医学研究或者法律案例的数据库。之后谷歌出现,所有人都能搜索了。当下流行的这些AI工具需要做到类似的可用性提升,高可用性应该是一个核心竞争点(如果你想成为一名提示工程师,小心你的职业生涯不会太长)。

现在这种基于聊天的交互方式,需要用户把问题清清楚楚的写出来。根据最近的文化水平研究,我认为发达水平国家至少有一半的人表达能力有限,不能从这些AI工具中得到正确的结果。

尽管如此,这种AI用户界面代表了一种全新的人机交互范式,一种充满前景的交互范式。

正如上面提到的,在基于命令的交互中,用户依次向计算机发出命令,逐渐产生所需的结果(如果系统可用性够好,用户能理解每一步应该发出什么指令)。计算机会100%服从,按照指令执行,缺点是低可用性可能会让用户发出的命令和自己的真实想法不符。

而对于新的AI交互范式,用户不需要告诉计算机如何做,只需要告诉计算机需要什么结果。可以说,当前这种生成式AI所代表的第三种交互范式,是基于意图的结果范式。

一句简单的AI提示语:

为我画一幅科幻杂志封面的插图,图上有一个穿着太空服的牛仔,在一个没有大气层的星球上,天空中有两个红色的月亮。

如果用2021年左右的Photoshop去做,你要操作成百上千个步骤,才能逐步生成这副插图。但在今天,Bing图像创作工具可以在几秒钟内提供四幅建议图像。

pic2

在当前这种由生成式AI所代表的新范式当中,用户告诉计算机想要的结果,但不需要指定如何实现这个结果。与传统的基于命令的交互相比,这种范式翻转了控制的角色。我甚至怀疑应不应该称之为交互,因为里面没有你来我往,也没有渐进的过程。

话虽如此,在上面的科幻插图中,我觉得太空服画的不够好,我可以再和AI交互一轮解决这个问题。这种逐步完善的流程目前的可用性很一般,AI厂商们有很大的提升空间,来改进他们产品的可用性,帮助普通人更好地使用AI系统。

“按我的意思去做,而不是按我说的去做”,这是一种非常吸引人的交互范式。正如前文所说,用户有时候会发出错误的指令。不过,把控制权完全转交给计算机也有问题,特别是现在的AI系统,因为它们的结果不一定正确。当用户不知道一件事是怎么做的,他们很难发现结果中的问题,更别说纠正了。

目前这种基于意图的范式,并没有达到我在1993年设想的非命令系统的水准。在真正的非命令系统中,用户甚至不需要指定意图,因为计算机的行动是
是伴随着用户的操作的。

比如说,老式汽车是通过明确的指令,插入钥匙并旋转来开门的。与之对比,通过语音操作的汽车,用户说:“我要开门”,然后车门自动打开,这就是基于意图的结果范式。然后,假如通过拉门把手你可以解锁汽车,这就是一种非命令的系统,因为无论车有没有锁,司机都会做相同的动作。

在这种基于意图的结果范式中,AI系统能实现高可用性吗?我对此抱有怀疑,因为我是图形用户界面的忠实粉丝。视觉信息一般比文本信息更容易理解,而且交互速度更快。你能通过和ChatGPT这样聪明的机器人聊天,来填写长表格吗(比如申请银行账户、预定酒店)?

在屏幕上点击、触摸,是一种非常直观且重要的交互方式,不应该被忽略。因此,我认为第二种交互范式将会继续存在下去,尽管可能不占主要地位。未来的AI系统可能会有一个多种范式混合的交互界面,将基于意图的、基于命令的融合,并且保留部分图形用户界面。