“一起体验一下吧。”
无中生有当然是不可能的,但纪弘也没有过多的口头解释,而是直接上操作。
操作之前,他还扬了扬自己手中的东西。
看到这个东西的那一刻,于东顿时笑了,因为纪弘手里拿的,赫然就是华为在两年前布的智能观影眼镜叫visiong1ass。
这东西并不是一个虚拟显示vr、增强现实ar或者是像苹果的visionpro那样所谓的混合显示设备。
visiong1ass相比vr设备那种大块儿头,要轻的太多了,整体来看,它更像是一副墨镜,戴着是很轻松的,重量也只有一百多克。
它并不是所谓的vrarxr等等之类比较先进的产品。
主要功能很简单,就是将手机或者平板之类的设备连接到这个观影眼镜上,然后达到一个12o英寸的巨幕效果。
这东西效果其实算不上太好,卖的也就那样,甚至都不是华为的重点产品,要不然也不会这么长时间都没有迭代。
前两天,纪弘还问他要过这個设备的具体参数和技术标准呢!
“该不会……”
于东突然想起了什么,神情顿时比刚才更加认真了。
而这个时候,这款眼镜的参数和功能也介绍完了,有了天命这个辅助思维的设备,所有人都对这款眼镜能做什么以及技术含量水准有了明确的认知。
而纪弘这个时候,也是正式的开始了,只见它将visiong1ass的技术资料作为初始条件输入了进去,然后推演结束的成果要求:
1、体积、样式、重量与当前设备保持一致。
2、展示效果:72o度全景影像,模拟真实世界视觉感知。
3、……
这个时候,不仅仅是于东,现场所有的人都意识到纪弘要干什么了,只是内心一时还无法接受,只得瞪着两只大眼,目不转睛的死死盯着台前的屏幕。
而于东也有所思考,现在的vng1ass只是一个平面设备,可以虚拟出一个12o英寸的巨幕,带着设备的时候,无论人怎么移动,巨幕的画面是不会变的。
但纪弘的要求,就像在现实中的动作一样,你一转头,看到的就是你左边或者右边的世界,一抬头看到的是天空,一低头看到的是大地。
而纪弘描述的这个设备,显然就是通过技术手段根据人的动作或者操作展示这样一个三维立体的世界。
“视频?影视?游戏行业?”
趁着ai模型不断生成和推演的功夫,于东也在琢磨这种设备一旦出现,它非常多的应用场景。
也在其中思考着这东西跟华为现在的业务之间的关联。
不仅仅是于东,廖正脑子里也开始活泛起来,不过,他想的更多的是,这不正是虚拟城市的一个体现吗?
……
纪弘一看陷入沉思的众人,也是默默的看了一下后台,这么一个程度升级,需要的时间并不长,因为要求确实不高。
纪弘所要的也只视觉效果而已,并没有要求什么全沉浸感知、也没有对人机交互有过高的要求。
之所以这样,是因为纪弘已经尝试过,人机交互,确实没有那么简单。
当然,也有可能是他提供的参考数据和资料太少的缘故——模型的能力是推演,而不是创造,它要做一件事儿,是需要数据支撑的。
而他能提供的数据,都是现实中已经存在的——
无非就是动作和手势之类的隔空操作,比如华为的抓手截屏,visionpro的集中手指交互手势,以及一些眨眼翻页之类的东西。
visionpro还有眼球追踪配合手势的一系列操作。
但这些还是相对复杂,而且效果也不是很好。
初次尝试可能觉得很好玩,咦,我瞪着某个图标,双手一捏,它就打开了,很神奇的样子,但是这么玩儿一个小时试试?还不得累死!
所以,visionpro看似走出了混合显示很神奇的一步,将app啊、页面啊什么的都可以虚拟在现实中展示出来,还能有很多的互动,看起来很科幻,但是其实很鸡肋。
这东西也就看个电影电视啥的操作比较简单比较少的场景还有点儿用,玩其他的,尤其是需要频繁操作的东西,那太累了。
人机的交互方式会是限制这一切更进一步展的关键一环。
纪弘经过一些实验之后,也是意识到,在不直接去读取大脑意识的情况下,哪怕是现在完整版的类思考模型,也没有什么太好的办法。
请关闭浏览器阅读模式后查看本章节,否则将出现无法翻页或章节内容丢失等现象。