1. 主页 > 设计资讯 > 行业动态

交互设计方法论:未来的交互

编者按:我们一定都想过未来的手机会是什么样子。会不会没有手机实体,芯片用投影或者眼镜植入;操纵是否可以通过手势或想法等来完成。;在本文中,作者详细分析了未来的互动,并对未来的互动写下了自己的思考。我们一起来看看。

一.未来的互动

1.想法

上一章我们从0到1发明了iPod,最终产品几乎和苹果第一代iPod一样;从逻辑上来说,这本书的理论和实践已经完成,应该快结束了;但实际上,只有一个iPod发明案例想证明这套理论是正确的,但仍然存在一些推理漏洞。

我通过这个理论发明了iPod,只能证明这个理论对于iPod的发明是正确的。

但是因为我脑子里已经知道苹果的iPod是什么样子了,所以我不能证明我发明的时候没有受到苹果iPod的影响。

所以在我的书中有两种对发明iPod过程的解释:

2.两种解释

第一种解释是:我已经知道iPod是什么样子的,我的发明过程也不完全是从零开始的过程,更像是我知道结果,并朝着最终结果一步步推导出来的过程。

第二种解释是,这个理论真的可以让一个人从零开始发明iPod,即使这个人从来没有见过iPod是什么样子。

那么问题来了,怎么验证哪个解释合理呢?

我想出了两种验证方法:

3.两种验证方法

第一种方法:穿越时间+清除记忆。

因为iPod是2001年发布的,如果我想在乔布斯发布iPod之前发明iPod,我需要一个时光机让我穿越20年前;事实上,我们都知道现在还没有时光机。

所以回不到20年前,就算回20年,脑子里已经有了关于iPod的记忆;我还需要一个记忆擦除器,把iPod的记忆从脑海中抹去。那么这个验证方法基本上是不可能的。

那么有没有办法间接证明这个理论是正确的呢?当然有。

第二种方法:创造未来。

为什么第二种解释可以通过创造未来来验证?

上面说我不能早出生20年,也不能回到苹果发布之前发明iPod的时代。

但转念一想,如果我真能早20年写完这本书,也就是公元2000年,书中发明的iPod交互也是未来的交互,因为苹果在2001年发布了iPod;也就是说,如果上面第二种解释是正确的,那么我就可以发明未来的交互。

但其实我不可能早出生20年,但我们可以换个角度思考。如果我是20年后出生的,那么这本书是我在公元2040年写的;20年前的2040年,也就是公元2020年,我能发明还没有出现的交互设计方案吗?

所以我们可以这样推理,假设第二种解释是正确的,那么从理论上来说,我可以发明创造出一些交互设计,在未来20年里,这些交互设计将会被新产品使用。

4.总结

总之,有两种方法可以验证这本书的理论是否正确。我不能回到过去,但我可以创造未来。

第二,创造未来

我开始进入正题。现在摆在我面前的问题是,如何创造未来的互动?应该从哪些方面或者产品入手?

这一章虽然叫未来互动,但其实讲的是“历史”。

因为未来本质上与过去和现在没有什么不同,它之所以被称为未来只是因为它还没有发生,但随着时间的推移,它最终会成为历史;现在我是未来20年我眼中的历史。让我们看看过去的产品和交互,看看我们是否能为发明未来的交互找到灵感。

交互设计方法论:未来的交互(图1)

上图是2007年乔布斯iPhone发布会的图。上面的交互设计是鼠标,转盘,多点触控。这些设计对应的产品有Mac、iPod、iPhone这些产品交互可以说是世界级的,它们的诞生改变了整个世界。

我们可以试着用前面章节的知识来分析这些相互作用。鼠标可以控制屏幕上的光标,在平面上移动,属于二维功能;信息接收(鼠标)和信息发送(屏幕)是二维曲面。

iPod的转盘可以作为线功能的信息接收器,iPhone的屏幕可以作为面功能的信息接收器。

让我们想想我们能用下表做些什么。

交互设计方法论:未来的交互(图2)

世界上所有的互动都在这个画面里,所以未来的互动也一定在这个画面里。

左上角那个最简单,功能是点,收发都是点,比如开灯;相比之下,右下角最难,功能是身体,收发是身体,基本属于虚拟现实、AR、VR相关产品的范畴。

1.我的回答

以下视频截图是我基于书中知识的未来互动:

交互设计方法论:未来的交互(图3)

以上发布会列举的指尖交互手势,可以在电视、电脑、游戏、虚拟现实产品中使用,触摸指尖可以实现不同的功能。

其实手势控制并不是什么新鲜事,有些产品已经配备了手势控制;和使用手势控制的电视一样,最早的热潮是在2013年左右,当时各种电视厂商给电视增加了手势控制功能。

TCL 13年生产手势识别电视,但是如果你现在去TCL的体验店,问哪个电视有手势,工作人员会对你说:你来晚了,你来了好几年了,现在还没有带手势控制的电视生产。

到目前为止,小米电视还没有配备任何型号,康佳电视只有一款,2019年发布的华为电视也有配备。

早年那么多电视争相携带手势,想实现无遥控电视,为什么到现在还没有大规模应用?

可能有人会觉得是成本或者技术上的考虑,但我觉得不是因为这些原因。我觉得真正的局限性是,这款电视即使配备了手势控制,消费者在使用几次后也会发现使用起来太困难。;电视遥控器比这些手势好多了,不会用手势控制这个功能。

由于没有人在使用它,制造商没有必要以额外的成本来实现这一功能。

原因是,就像我视频里说的,这些手势存在一些问题,容易误判,等待响应,需要实现的功能很少,没有控制感知道自己是否点了一个键。

有问题:

1)容易误判

为什么容易误判,因为这些手势真的是把某个“手势”作为一种信息,比如OK手势、张开手掌、剪刀手、握拳;很容易把这些手势误判为指令,因为我们通常会做出类似的手势;另外,判断逻辑不完善,每个人做的手势都不一样,更难平衡。

2)响应需要等待

为了减少误判,有的产品是通过延长判断时间来实现的,导致产品响应等待,比如华为电视;现在很多手势,包括微软的hololens,或者其他VR和AR相关的产品,都是用时间维度来辅助确定的。

3)功能有限

设计这些手势的设计者受自身经验的束缚,认为手势是一只手处于某种形式时的手势,只有少数熟悉的手势,所以能实现的功能只是简单的点功能;当然有些手势是线条功能和表面功能,比如用手掌向内空移动来控制电视的光标移动。

指尖交互手势已经是最高体,甚至不考虑时间维度,比如长按、双击;只用一只手,就有78个功能维度可以通过指尖交互手势来控制。控制电视的某些点功能和线功能或面功能绰绰有余;所以我们只用一只手就可以控制电视和电脑。至于玩游戏,肯定不如游戏手柄,只能玩一些简单的游戏。

我们通常握拳,手掌张开,手掌自然下垂。这些状态从指尖交互手势的角度看——握拳是5指指尖交互,张开手掌是没有指尖交互,手掌自然下垂是4指。指尖互动;我们在设计的时候尽量避免这些指尖的交互。

就像视频里显示的手势,基本上日常生活中会少一些,不会有误判;另外,通过指尖接触不会有个体差异。一个人的OK手势和另一个人的OK手势会有不同的情况,不同的角度,不同的方向;但必须相同的是,拇指和食指的手指是接触的。

2.指尖交互手势的应用

其实实现指尖交互手势很简单。现在技术条件可以达到。最简单的方法就是给产品配备摄像头和一些视觉算法。当然,雷达也可以用来感知指尖手势。

如何实现并不是交互设计师的重点,所以这个手势可以用在电视、电脑、手机、AR眼镜上。

1)电视遥控器

小时候用遥控器看电视,按钮那么多。现在电视把这些功能转移到了屏幕上,按钮少了很多。但是如果你能完全用手控制电视就太好了,所以我在视频里展示了一个用手控制电视的例子。因为需要的功能不多,很容易用指尖交互手势代替电视遥控器的功能。

2)电脑鼠标

鼠标的两个按钮与滑动光标相同。高纬度包容低维度,相对简单;相信大家都在视频里看到了。视频中有一些鼠标通常不具备的功能。那是因为我直接做了苹果触摸板的功能,所以用过苹果触摸板的读者都知道视频里的那些。对应功能;比如始发站,调度中心等。

3)AR玻璃

在说AR眼镜之前,先说简单的内容,就像第一代iPhone采用的是准物化设计方案,让我们从现有的物理操作体验中更好的尝试新的手机界面交互;AR眼镜一开始就应该移植到电脑和手机上。一方面可以很好的教育用户,让用户从使用电脑和手机过渡;同时也解决了很多开发者一开始没有为AR眼镜开发软件的问题。

移植电脑和手机后,只要戴上眼镜,不用额外学习就可以使用对自己有用的产品。

4)计算机移植

我们看到的世界其实是3D 空之间的2D投影,所以我觉得我们要交互的界面应该是2D平面。

我们通常使用的电脑属于飞机。那么,可以把现有的电脑界面直接移到3-D 空房间吗?

配AR眼镜,可以直接显示在空悬浮的windows或macos操作界面,用指尖交互手势控制光标;正如我在视频中演示的,我们可以完全显示一个屏幕来控制。

屏幕上能显示的东西很少。因为现实中的屏幕是物理的,它会有边界,不能随意放大或缩小;当我们觉得一个屏幕不够用的时候,就会配合多个屏幕。

交互设计方法论:未来的交互(图4)

因为我们的真实屏幕是有边界的,很多程序在顶部都有一些功能选项,如上图:在真实屏幕上,你可以大幅度上移,因为光标肯定会停留在屏幕的上边缘。

但在虚拟现实中,光标任意移动,不受虚拟桌面边界的影响;那么我们需要更精确的控制来选择想要的功能,否则鼠标很容易移出虚拟桌面。

能完全模拟真实屏幕吗?光标只在虚拟桌面的范围内移动,不能超过限制。

这样做可以解决上面提到的问题,但是却带来了另一个问题——我可以有很多虚拟桌面。想控制其他虚拟桌面时该怎么办?

如何从一个软件窗口移动到另一个软件窗口是我们不得不思考的问题;使用现有的多屏控制系统当然是可以的,如上图,但也不是那么随意,可以随意放置。

我们可以把眼前的空看成一个大桌面,每个程序都有自己的区域,难免会重叠;但我希望每个程序都有一个虚拟边界,以达到更好的控制。

这个时候如何选择另一个节目?

我的回答是:从空之间的另一个维度开始,我们可以把光标从二维屏幕上拖动到另一个软件窗口;这时,光标就像一滴水,脱离了一个程序的屏幕。

5)手机移植

就像我上面说的,你只能通过指尖简单的互动来玩一些简单的游戏;虽然我在视频里展示了我在《守望先锋》里用指尖互动手势扮演麦克雷的角色,但其实很不方便。两只手可以同时控制多达四个功能,这在游戏过程中往往是不够的。

现在很多人玩手游,比如王者荣耀,和平精英等。,这很难通过指尖交互手势来播放。

那么,未来的手机会是什么样子呢?

我在这里做一些思考,大家可以看看,不要当真。

我们在一些科幻电影里看到过完全透明的手机,但是以我的知识来看,完全透明的手机基本上是不可能的。

除非电池、相机、音箱等所有材料都能透明;如果只是显示屏透明,周边圆圈不透明,还是可以的,厂家很早就实现了,但是不能量产,效果不理想;最近发布的小米透明电视可以量产了。去现场体验了一下,效果不错。

但如果一块透明玻璃与AR玻璃碰撞,会产生怎样的火花?

我个人认为这两者结合基本上可以实现完全透明的手机;唯一需要解决的问题是如何获取手指与屏幕接触的信息线。这个解决了,基本就没问题了;当然,因为这个玻璃手机只是一块玻璃,不会震动,不会自拍,不会放音乐。

如果你不在乎透明度,想更实用,那我们可以加一个摄像头,震动,按键,触控,电池,麦克风,音箱,但是AR眼镜可能已经有麦克风和音箱了,或者你可以戴个AirPods我们不需要屏幕。我们可以通过AR眼镜附加一个屏幕,基本上就像一个没有刘海的iPhone。

那么这个没有屏幕的“手机”和现在的手机一模一样,你可以做现在手机能做的任何事情;只是别人看你就像拿着一块,乱按。

现在你可以随心所欲的放前置摄像头和后置摄像头,即使整个手机两边都有好几个摄像头,当你自拍的时候,看到的依然是你自拍的全屏幕画面。

我们再深入思考一下,如果前后摄像头同时拍摄,远程传输数据,加上ar眼镜,身临其境;当然,最好控制显示范围。方圆几米的环境还是比较现实的,以免不小心撞到其他东西。这次算是VR场景了。

如果只做到以上目的,我们现在的360环绕其实只是一个平面,就像现在你用手机屏幕看街景,没有立体感;如果要拍立体图片或视频,需要两个摄像头之间的距离,同时拍照,这样才能得到立体图片。

想要360度环绕立体声,至少需要4个摄像头,当然更多是最好的,但4个是最低要求。

这次真的叫身临其境,不仅仅是360环绕声的画面。

这么多摄像头,能叫手机吗?这只是AR眼镜的一个应用场景。你甚至可以拿一块硬纸板,直接当iPad用;因为透过眼镜,看到的是iPad,却没有振动、摄像等其他功能。

3.增强现实眼镜应用层扩展

乔布斯发布iPhone的时候提到了电脑鼠标,iPod上的转盘,iPhone的多点触控,这些都属于媒体信息接收方式;指尖互动手势,在我看来,也属于一种接受信息的方式,而不是一种特定的互动。

比如我们在手机上的操作是基于多点触控的信息接收方式,两个手指捏缩照片,两个手指旋转照片旋转,或者下拉刷新操作;这些特定的交互基于多点触控;再比如我们的电脑鼠标,它在射击游戏中不仅可以控制光标,还可以控制瞄准。

我在视频里展示的是一些功能操作和一些手势对应的功能。至于不同手势对应的功能,我其实可以自己想象;视频中我举的例子只是我自己的想法,会给你一个参考。

除了这些例子,我没有讲具体软件界面和指尖交互手势的联动;因为这个东西,其实我们已经到了自由创作的阶段。

上面的手机和电脑都是移植到AR眼镜系统的,就像iPhone移植iPod做app一样。

那么iPhone APP Store里层出不穷的各种应用就是应用层的延伸。

软件层面,下拉刷新,双击赞;看视频时,在屏幕左侧上下滑动调节亮度,在屏幕右侧上下滑动调节音量,水平滑动调节播放进度;这些互动都建立在屏幕上。

在虚拟现实中,基于指尖的交互手势可以衍生出哪些具体的交互?显示的内容是平面的,如何交互?立体内容是一种怎样的互动?开始菜单的呈现呢?多任务是什么样的?

这些读者可以根据互动手势进行想象。可能你想到的交互就是我们以后要用到的。

4.缺点

指尖交互手势虽然有很多优点,但也有局限性,就像手机屏幕太大,单手操作不了一样。

1)打字

如果在空中显示虚拟键盘进行打字,此时不宜使用指尖交互手势,只需将手指放在相应位置即可。

但是,这并不像物理键盘那样有触觉反馈。即使把虚拟键盘投影到桌面上,也有点击的触觉反馈,但没有键隙的触觉反馈,你的视觉焦点必须在虚拟键盘和虚拟屏幕之间切换。

这种交互违背了书中的思想,所以未来打字只能通过物理键盘或者语音来实现。

对了,未来的电脑,有的设计折叠电脑和键盘都是屏幕,肯定不是好的交互;我为什么这么说?

因为这种交互违背了我书里提到的交互设计理念;除非你能达到触觉反馈,就像真正的键盘一样,而不是敲钢板;按压的触感是可以模拟的,比如现在可以用mac上的触摸板,但是需要模拟触摸各个按钮之间空隙的感觉。

或者有一款手套,戴上后即使在空也能给出触觉反馈,所以这款手套是不错的选择。

至于怎么实现?

周围有磁控装置,手套上的磁力可以相互对应,加上震动应该足够了,甚至可以让你真正握住空气中的空物体;如果全身都带着这个装置,就有可能坐在空空气中,原理和现在的悬浮地球仪大致相同。当然,我对这一块不太了解,也不知道会不会违反一些物理原理,所以来看看。

2)选择项目

因为我们看到的是二维图像,很多时候可以用光线来移动光标,选择对象会比实际控制光标在3维之间移动来得快空。

5.未来的其他可能性

未来的交互必然不仅仅涉及指尖交互,还会涉及其他产品交互,比如通过眼睛、安静技术、拟态、语音、脑机连接等的发展。

我也在这里写点看法——总结一下,未来的交互设计有一个规律:用没用过的信息线,不管是收的还是发的。

1)眼睛互动

眼睛让我们看到事物,接收视觉信息线;除了接收信息,我们还可以通过眼睛发送信息吗?

从用户信息传递的角度来看,我们可以控制眼睛做什么:眨眼、睁眼、睁眼、眯眼、瞳孔大小。

眨眼:眨眼就像玩莫尔斯电码一样。只要给你足够的时间,你可以控制很多复杂的功能;但是眨眼是我们生理必须做的事情。我们可以主动控制是否眨眼,但会不自觉地眨眼,所以通过眨眼输出信息是不好的;当然也可以单独控制一只眼睛眨眼来触发相应的操作,但是太费力了;基于这种考虑,不建议通过闪烁来输出信息。

眼球滚动:眼球滚动其实是一种表面输出。我们已经应用了这个信息,也就是我们的眼动跟踪器,视觉跟踪等。;也可以用它玩游戏之类的,但是如果需要接收视觉信息,用眼睛控制,就不太好了;如果用眼睛玩赛车游戏,当你控制汽车左转时,眼睛向左移动,眼睛在屏幕左侧,看不清屏幕中间的内容;另一方面,眼球的转动受环境影响很大。外面有闪电或巨响,我们会不自觉地转移注意力,想看看发生了什么;即使我们盯着某个地方看,眼睛的焦点也在不停地晃动,但人感觉自己的眼球并没有转动。

如果是通过其他感官信息线接受,通过护目镜控制,还是有可能的;例如,控制音量,或左右转动,升高或降低椅子。

微软的hololens正在浏览网页。当您看到以下内容时,页面会自动上移。这种互动看似减少了人的主动互动,其实人是没有控制感的;轧制速度无法精确控制。

睁眼、斜眼、眉毛:睁眼、斜眼,可以看作是眼皮的开合,可以看作是线条信息的传递者。我们可以主动控制这两种方法,但不能经常做这些行为。环境亮度会影响;眯着眼睛也会影响视觉信息的接受;控制眉毛上下运动的方案稍微好一点,但不是每个人都能随意控制眉毛。

瞳孔大小:这不是我们可以主动控制的,主要是因为周围的光源或者生理反应,比如受到惊吓。

总结:眼相关交互的使用只能在非常有限的场景下比其他交互更好,所以我对未来的这种交互并不乐观。

2)冷静技术(冷静技术)

什么是安静技术?

我个人是最近才知道的,可以简单的告诉你这件事。以下是国外对此技术的描述:

维基百科中关于安静技术的一些介绍;

用户对产品的注意力需要保持在边缘区域,这意味着这种技术可以很容易地在注意力的中心和外围之间切换,或者说安静技术更多地出现在注意力的边缘而不是注意力的中心;安静技术增加了人们对边缘注意力的利用,不增加用户的信息负担,从而创造了良好的用户体验;安静技术给人一种熟悉的感觉,让用户了解过去、现在、未来的环境。

好的工具是无形的工具。我们所说的无形,是指工具不会侵入你的意识;你关注的是任务,而不是工具。

好的工具是看不见的。这里的隐形是指工具本身不会占据我们的注意力,你只会专注于如何完成任务而不是工具。

马克魏泽& # 8211;1993

我举几个例子来解释一下:

交互设计方法论:未来的交互(图5)

左上的手环是宁静科技的体现,只有一个按钮和一个彩色状态指示器。mi band是serenity技术的对立面,使用电子屏幕。

安静技术把电子屏幕当成安静技术的对立面,把电子屏幕当成会吸引用户注意力的东西。在我看来,这是错误的——屏幕是现实的延伸,是多变的现实。

看起来像机械表的电子表和机械表有什么区别?

这是宁静科技无法合理解释的:当我们看到屏幕时,我们知道它是一个可以显示内容的屏幕,无论它是否支持触摸,我们都需要在不知不觉中尝试一下。

但这是我们被电子屏幕吸引的注意力吗?

如果是嵌在黑色桌面上的屏幕,根本不会引起注意。

静音技术倾向于在非屏幕上显示信息,比如下面苹果电脑的电源状态;如果有读者没看过,先不要回头,猜猜这三张图是什么意思;更重要的是,再猜再看。

交互设计方法论:未来的交互(图6)

插上电源后,无论苹果电脑是否在充电,我们看电脑屏幕就能看到充电状态,而静音技术认为界面上的灯也能起到同样的效果。

如果灯没亮,说明还没有接通;灯为黄色,表示充电;灯为绿色,表示电源已满;不知道大家猜对了没有,大部分人猜对了,很少读者猜错了。

宁静科技的应用只能通过一些简单的功能提示嵌入到普通产品中;因为这些东西是给用户讲道理的,所以这个灯就打开了,接上电源。这个灯是黄色的,表示电脑正在充电;这些都是为了让用户学习这个对应,因为用户一开始并不知道绿灯黄灯是什么意思。

但是,这种设计稍微违背了安静技术的概念;因为按照安静科技的概念,没有内容的黑屏会占据我们的注意力,没有它的指示灯会占据我们的注意力;所以,如果按照静音技术的概念来设计,并将其应用到极致,应该是苹果键盘的指示灯,如下图所示。

交互设计方法论:未来的交互(图7)

没开的时候,你根本看不到那里有灯,但是开着的时候,你不会注意到有灯。因此,安静科技认为“对于手机、电脑等智能产品的界面,未来的UI界面会越来越少,但界面会融入我们的生活”。

我不太同意这个观点。我们从交互环的角度来看一下使用极致安静技术可能出现的问题。

第一步,通过媒体向用户发送信息线;我知道这东西是干什么用的吗?如果是屏幕,我知道可以点开。这就是我们所熟悉和学到的。

屏幕是可变显示,不能不用;如果你要把屏幕嵌入墙壁或桌面。不用时,看起来像普通的墙壁或桌面;用的时候屏幕显示显然是不可能的。

如果有一天,到处都是科技安静的屏幕,谁知道这面墙有没有显示屏?这种不确定性确实困扰着人们。

安静技术的使用可以让我们不被信息轰炸,但前提是我至少要知道你的产品在哪里,而不是“消失”;至少我需要直接知道这个函数是什么,而不是让我从结果中推导出相应的函数来学习。

如果以上两点都没有达到,那么这个产品根本没有给我发有效的信息线。这种设计有什么用?

3)多模态交互

什么是多模态交互,其实就是多种感官的交互——就像你可以用键盘或者语音打字一样。

多模态交互其实和我在第三个操作中提到的优化策略是一样的:多样性。

有电话进来,手机震动,铃声响起,屏幕亮起,都是必要的多模式;因为根据树桩分析,你可能会把它放在口袋里去逛街,周围环境嘈杂。这时候你需要一个振动的消息线给用户。

手机放在其他地方,离你很远的时候,你需要一条声音信息线;有时候你把手机静音,放在很远的地方;当屏幕亮起,闪光灯闪烁时,信息线也可以传输给你。

但不代表多模态交互就一定好。把握好提升体验和造成骚扰的程度很重要。不能说每个app的每个按钮都加了振动反馈,或者页面切换加了振动反馈,所以多模态体验很差。

4)语音交互

无论是指尖交互手势还是指尖直接接触打字,用手势打字都不是很方便。这时候语音打字更方便;当然也有适用的场景。如果你在一个安静的图书馆,你最好不要用你的声音打字。

语音发送点信息,时间维度是线信息。语音交互之路走到尽头,大概是因为AI智能基本可以像人类一样交流。

再进一步,就会有脑机连接——也就是媒体可以读取普通人无法读取的信息。

5)脑-机连接

之前的《道与艺术》已经把整个交互框架和设计要点讲的很透彻了。

如果你想在以后的交互中跳出这个框架,基本上只会应用脑机连接技术;这样,人们就不需要通过信息发送者发出信息线,而是直接通过黑盒发出信息线,让媒体的信息接收者直接获取,媒体就可以直接了解你想要什么。

心智控制事物,在某些方面确实不错,比如因为高位截瘫而无法控制身体的人。

但是精神控制也有不可避免的缺陷。我们无法完全控制自己的想法。想象你正在骑自行车。你能想到一直骑而不翻车吗?

这个对我个人来说比较难。

当你看到大象这个词时,你能想象不出现在的大象吗?大象的耳朵和大象的鼻子& # 8230;相信很多人都做不到。这是我说的。我们无法完全控制大脑的想法。

即使你用意念以最简单的方式移动物体空,你也需要用眼睛控制物体,而不是闭上眼睛。

为了减少中途的失误,假设这些可以先模拟再自动执行,你必须有明确的指令让产品执行你的指令;否则周围环境的变化会引起你的注意,你的思维最容易受到影响。

这就是关于信息传递的脑机连接的思想。目前,脑机连接允许人们通过大脑控制物体,这是一个发送信息的过程。

至于接收,如果不用任何光学产品就能看到眼前的文字,那就是本书范围之外的交互。

有了空的创作,就可以做出各种感觉,就像电影《黑客帝国》里一样。那时候的互动会是什么样子,就留给读者自己去想象了。

三.结论

上面提到的未来的一些互动可以通过现有的技术来实现,而另一些只能通过等待技术发展来实现。

不知道有没有读者记得我在文章开篇说过:交互设计师要突破现有的技术层面限制,想象未来的交互;现在是时候回收这个伏笔了。我发明了指尖交互手势,视频中的内容就是我构想的未来交互形式;至于未来的互动是真是假,只能等时间来证明了。

我是如何看待指尖交互手势从0到1的?我觉得没必要画蛇添足,再说一遍。读者只需看一两遍iPod案例就能理解。我在iPod一章已经详细解释过了。

如果读者认真阅读,吸收书中的知识,那么稍加推理就能知道我是怎么想出来的;如果不仔细看,就算写出指尖交互手势的思维过程,对你的影响也不大,看完大概率就忘了;所以我建议读者尝试自己创作一些东西,或者尝试演绎iPod或者指尖的交互手势。

如果未来的互动真的如我所想象的那样,那就证明这套理论是正确的——也就是这套理论真的能让我从零开始发明iPod,即使我之前没见过iPod,也能让我发明未来的互动。

未来不确定,我又不是预言家,也没有穿越到未来的时光机,看看未来的互动会怎样,然后写进这本书里。

但我相信交互设计也有一个进化的过程,通过这个过程,我们可以稍微窥视一下未来;我不能保证它会和我想的完全一样。我只是写下自己的想法,回头看看10年后,20年后——当书中的互动被实际应用时,我会有什么感受?

如果一开始就看到现在,你会发现,到目前为止所有的互动都有迹可循;至于互动的结局是什么,甚至有没有结局,让大家好好想想。

我把这本书命名为《互动精神》,希望这本书能在漫漫长夜里照亮一个像爱迪生的灯一样的地方。希望这本书能像夜晚的灯塔,让交互设计师在交互设计的汪洋大海中找到前进的方向。

我觉得我不是一个很聪明的人。如果我也能想出一些互动创新,那么读者们,请相信自己——创造未来并没有那么难。还可以发明iPod,鼠标,指尖互动手势。

这就要结束了。我想模仿哥尔·D·罗杰,对读者说一句话:“你想创造未来的互动吗?”如果你想去看书,我把所有东西都放在书里!"

本文由设计学习网整理发布,不代表设计学习网立场,转载联系作者并注明出处:https://ffjianzhan.cn/xingyezixun/jhsj/646.html

联系我们

在线咨询:点击这里给我发消息

微信号:

工作日:9:30-18:30,节假日休息