UPUPD资讯

你被马云骗了!想要败家(BUY+)没那么容易

这几天,淘宝Buy+宣传视频在网上异常火爆,很多人看过之后都无限憧憬,觉得有了VR购物,以后真的可以足不出户到全世界买买买了!


  可我们看过之后发现,短短几分钟的视频中“漏洞百出”,很多细节都经不起推敲。

  对此,业内人士也有同感。超多维刘宁认为,淘宝这次只是把未来的一种电子商务或者说是虚拟购物的模式,通过视频呈现出来;但是,以现有的技术手段和产品,想要实现真正意义上的VR购物,还有很长一段路要走。

  需要考虑的是,这样一个技术(VR),进入到产品阶段,会面对各种各样的挑战。

  比如,如何让十亿真实的商品成为在虚拟环境中可以展示、触摸、试穿的虚拟商品,这就涉及到对每个物体单独三维建模的问题,这个工作量和耗费的资金成本都是十分惊人的。

  而将所有的商品模型置于VR虚拟场景之中,需要传输的数据量将非常庞大,现有的互联网带宽恐怕也无法承受。

  还有很重要的一点,VR发展到现在,最困难的问题之一就是交互。而视频中提到将增加五感模拟来实现视觉、听觉、触觉等,事实上目前除了视觉和听觉,其它几种实现起来都还比较困难。

  下面,就具体来分析一下,你们是怎么一步步被马云“欺骗”的。

  视频中,用户戴上VR头显之后立刻进入了虚拟世界。在这个虚拟世界中,好像所有的操作都能靠自己的双手来完成,比如可以直接用手在空中点击确认,拿起衣服、鞋子,甚至还能用手感受内衣的质地。

  

  ▲我点,我点,我点点点……

  

  ▲想拿哪个就拿哪个

  

  ▲还可以……兰花指?

  那么,手真的可以直接与虚拟世界进行交互吗?

  事实上,现阶段VR交互仍然需要借助一些外设才能实现。

  像这样↓

  

  

  而且可以肯定的是,视频中佩戴的三星Gear VR、HTC Vive,当前并不能独立完成手指手势识别、控制。

  而要实现VR交互,需要大量外置传感器。这些传感器,要么是布置在空间中,要么直接戴在或者拿在用户手上。这样,才能捕捉和识别用户的位置、方向、甚至手指的动作等。

  也可以利用蓝牙手柄等完成一些比较简单的操作,或者利用陀螺仪,就能实现通过头部转动进行操控。除此之外,还能利用虚拟键盘或实体键盘,以及语音识别等实现文字输入。

  

  不管是哪种交互方式,都需要借助外设才能实现。

  当 然,视频中展示的手势控制、隔空取物,目前确实有很多公司在研究,技术上也具备一定的成熟度。可是也只能进行有限度的识别,超出一定的距离就无法进行了。 而且,目前能识别的手势也只是摆手、挥手、抬手、甩手等简单动作,对于一些比较精细的动作,比如视频中出现的用手指去捏东西等,还比较困难。

  视频中,一个小孩拿着香蕉敲鼓的场景,大家应该印象深刻吧?这么说,香蕉也能交互了?这脑洞是不是有点大?

  

  事实上,想要用香蕉敲鼓,牵扯的技术和问题更多。

  举个例子,隔空取物的时候,你只需在空中点一个“确定”那就是确定了,但敲鼓的时候,如何才能确定你真的敲到鼓面上了呢?这是需要虚拟世界给你一个反馈,就要用到力反馈技术。而且,你敲到铁皮上,和你敲到木头上,手的感觉是不一样的,这些都要考虑进去。

  因此,想要实现视频中用香蕉敲鼓,至少需要将使用力反馈技术的辅助设备戴在你手上,这样才能将反馈信息传达到你的手上,你才能感受到,觉得自己真的敲到东西了。

  视频中呈现的可以用手直接感受内衣质地的画面,是不是也令你充满期待?

  

  现实中,同样是交互,触觉感知的实现则更为困难。

  因 为人的感官由神经来感应到,然后传递给大脑,除非你真的摸到东西,或者大脑接收到了这种信号,才会产生触觉。不同材质、质地,软的、硬的,光滑的、涩 的……这些感受完全不同。所以,要实现触觉感知,需要很多传感器和力反馈技术,同时还需要配合实物。但是从视频中看,并没有实物。

  视频中“下一秒将你立刻送到巴黎老佛爷”什么的听起来真的是很诱人。

  

  但现实却是,要还原一个真实的360度街景绝非易事。

  现在的街景地图基本可以实现角度、位置切换,不过却不是每一个细节都有。想要还原真实街景,不仅要把每一条街道,甚至每条街道中的细节都要做出来。

  况且,视频中展示的街景还只是平面的,如果要追求效果,将来肯定要做成三维立体的,又会涉及到给如此众多的物体三维建模,同时还要考虑实时渲染等问题。

  需要注意的是,受到网速的限制,现在很多全景视频传到网上之后画质都非常渣,如何确保传输画面质量?这些问题都亟待解决,而以现有的技术和软硬件条件,不仅十分困难,而且成本非常高。

  即便解决了360度街景的问题,要实现人在VR场景中的行走、移动,却不像看起来的那么简单,更别提像逛街那样随意走动了。

  

  因为人走路是需要一个参照物的,比如,你看到自己离一堵墙有2米远,那么你就会保持2米的安全距离。一旦戴上VR眼镜,你视觉的参照物就变成VR场景中的虚拟物体,这样就会产生问题。

  举 个例子,我在自家客厅玩VR,如果我家里客厅很小,往前走两步撞到墙了,往后走几步又撞到桌子了。当我戴上VR眼镜之后,看到的VR场景中虚拟出来的购物 中心是很大的,感觉我可以随便往各个方向走,可是一旦我这么做,就会在现实中“碰壁”,这不仅影响VR体验,更会带来安全问题。

  而内容制作者很难确切地知道每个用户所处的具体场景是什么样的,以及每个人在移动过程中,前后距离、移动的速度,以及速度带来的感官变化等。当你处于不同的运动状态,比如奔跑、走路、蹲下来时,场景的变化和真实环境中场景的变化都是不一致的,所以解决起来就更麻烦了。

  视频中提到的“即时购物”,对淘宝十亿商品进行“100%还原”,就更显夸张了。

  

  把十亿商品都进行建模,短时间内是不太现实的事情。

  从视频中看,每件商品感觉都能拿起来,这就需要将店铺所有的衣服、鞋子等都建模,只有每一个是独立的单元才能实现拿起、试穿等交互,这需要耗费庞大的资金。如果要做到极为精细的话,那么成本比制作一款3D游戏还要高。

  而 且,我们是不是也要考虑下这样做是否值得?故宫博物院曾经利用三维建模还原了很多珍贵文物,使得大家通过互联网就能很方便地360度参观,这样不仅起到了 保护珍贵文物的作用,还让更多的无法去现场的人有机会看到人类的文化遗产。这是一件意义重大的事情,即便花再多的钱和精力也是值得的。而现在,如果仅仅只 是买一双袜子,或者一件很普通的T恤,就要对它们逐个进行建模,这样做真的值得吗?

  视频中,用户在自己家中能随意试穿衣服的场景,是不是也深深吸引了你?

  

  一般来说,想要在VR场景中试穿,场景中应该会出现一个跟自己一模一样的模特,这样才能知道自己穿上是什么样。可是视频中并没有呈现这样的画面。

  想要实现,需要先将自己的外形扫描进去,包括身高、体重等数据,进行三维建模,然后放置在VR场景当中。同时,试穿的时候还涉及到动作,所以需要全身动作捕捉技术。这样的话,用户就需要穿上全身布满传感器的衣服,那么,试衣的场景应该是这样子的。

  

  所以,那些担心以后剁手不够还要挖眼的小伙伴们,大可不必如此激动,理想的VR购物离我们的现实生活真的还很遥远。不过VR游戏、VR视频等,无论是硬件还是内容,都日趋成熟,正在走进我们的日常生活,将带给我们炫酷的娱乐体验。


特别声明:本文章来源于网络,如果存在出处、来源错误,或内容侵权、失实问题,请及时与我们联系。《UPUPD资讯-分享有趣的网站》仅提供信息发布平台。