徐井宏、童之磊、方方……8月22日与亚杰商会“创业升级”
06-18
早上,王爷爷吃完饭后,机器人“小明”在半小时内就赶紧提醒王爷爷吃药。
吃完药,王爷爷坐在电视机前,“小明”告诉王爷爷,老花镜在茶几的第一个抽屉里。
午休后,王爷爷要出去散步。
“小明”告诉王爷爷,外面只有10度,需要穿外套、打伞。
上述场景绝对不只是想象。
随着老龄化的深入和少子化的下降,越来越多的机器人将走进老年人的家中,成为养老的智能助手。
然而,每个老年人都有不同的气质、性格和需求。
因此,要求机器人不断学习,了解老人的隐性需求,真正陪伴老人。
如何满足这些个性化需求?从人工智能的角度来看,需要让机器人不断学习,了解老人的家居环境,了解老人的需求。
然而,目前它在机器视觉和自然语言理解方面面临着巨大的挑战。
在英特尔中国研究院一年一度的媒体开放日上,英特尔研究人员分享了英特尔在计算机视觉、自然语言识别、强化学习等领域的研究成果,让我们看到了机器人未来的发展方向。
目前的技术瓶颈是,当机器人进入家庭时,它首先需要认识主人。
只有了解业主,才能提供全方位的服务。
例如,主人喜欢什么时候起床?如果他们起晚了,需要提醒吗?你喜欢吃什么食物,家里没有的时候需要提醒孩子去买吗?对于所有者和重要物品的识别,目前都是基于深度学习,需要大量的训练。
然而,即使进行了大量的训练,有时也可能会出现错误。
例如,在对 10,000 张老花镜图像进行训练后,人工智能仍然是可能的。
认错主人的老花镜。
另外,由于每个家庭的需求不同,机器人无法预编译,需要定制。
比如有的人喜欢安静,不能在家里随意走动。
有些人喜欢搬家,需要随时响应主人的召唤。
主人的起床时间各不相同,无法预先编程。
需要根据个人特点来观察。
因此,制造一个好的机器人不仅需要人脸识别和低层语义分析,还需要高层语义分析,让机器人的智能满足个性化需求。
进家后需要自主学习。
目前的人脸识别一般都是识别正面。
对于侧脸识别可能效果不是那么好。
如果家里的机器人只能识别正面,就会出现很多尴尬的情况,用户的交互体验也会很差。
就会大大减少,所以有人想出了通过人体特征来识别的想法,比如衣服,但是当主人换衣服时,机器人无法识别。
英特尔采用的方法是将面部特征与人体特征相结合。
人体特征不需要提前看一个人的各种衣服或姿势来识别人。
人可以通过人体特征来识别,但是通过人体特征。
脸部开始不断自我学习。
机器人刚刚开始通过面部识别主人。
经过一周的互动和观察,它可以从各个角度准确识别主人。
因为主人可能会换衣服,所以机器人可能会出错。
这时,机器人需要主动与主人互动,确认可能出现的错误。
这就是人类自我学习的识别功能。
同时,英特尔还开发了一些自适应物体识别,例如药瓶。
标记一帧图像后,在线构建该对象的模型。
随后,可以准确地分割出物体的边界。
这相当于知道了这个物体是什么。
这可以通过向用户学习的过程来实现。
让机器人明白:“我昨天在客厅吃药,药瓶去哪儿了?”家庭生活中,王爷爷可能会问机器人:我昨天在客厅吃药,药瓶去哪儿了?这个问题看似很简单,甚至连三岁的孩子都可以理解,但对于机器人来说却存在着难以弥合的技术鸿沟。
其中,王爷爷是人的识别,吃药是动作识别,药瓶是物体识别。
这些都需要底层的识别模块来实现。
我们来看“昨天”和“客厅”这两个关键词。
客厅是对空间的理解,昨天是对时间的理解。
如何让机器人听懂这句话呢?首先,底层要进行人物识别、物体识别、情绪检测、动作检测。
接下来是三维语义环境,将底层检测到的信息与物理环境对应起来,比如人在哪里、物体在哪里等。
事件发生在哪里?只有当这些信息在三维语义环境的模块中匹配时,机器人才能理解事件的含义。
英特尔通过三维语义环境和个性化知识库两个模块来解决这些从底层感知模块到应用的问题。
然而,底层感知模块不可能100%准确。
该错误将传播到上层。
在空间层,我们希望用空间智能来标记底层信息。
相对于空间的位置,包括空间的三维建模,都是在这个层面上进行的。
理想情况下,当机器人到达家中时,它可以立即构建空间模型并能够理解空间的含义。
在知识库层面,我们可以很好地记住这些知识,并根据这些知识进行推理和应用。
但目前的技术还存在问题,不可能达到100%的准确率。
三维语义环境所做的就是从感知层获取信息,比如药瓶的位置,以坐标的形式进行标注。
接下来,空间智能需要了解该空间是客厅还是餐厅。
只有到了这个层次,它才能与人交流,进而做出判断。
走出客厅,然后成功找到客厅里的药瓶。
可见,空间智能的主要工作是快速建模空间并理解这个空间。
对于个性化知识图谱来说,主要功能是记忆和推理。
最大的挑战来自于我们想要记录的知识。
人类的知识分为两部分:一是稳定的知识,就像谷歌和Facebook试图存储的知识一样。
谷歌将其称为 Google Graph。
这些知识可以提前准备并由专家审核;二是个性化知识,是动态的。
改变的是,在机器人到家之前无法提前获取。
为了获得这样的知识,我们的挑战必须是有合适的知识表示、合适的知识推理,并且这个知识图谱必须能够容忍底层产生的错误。
强化学习让机器人能够完成主动服务。
当机器人能够理解语言时,就意味着机器人具备了与人交流的能力。
然而,为了真正照顾他人,机器人需要更深入的了解。
它不仅仅是一种被动的服务。
它还可以主动猜测主人的意图。
从王爷爷的例子来看,当王爷爷需要药瓶时,机器人可以给他拿。
如果机器人看到王爷爷在找东西,能猜出他是想找药瓶还是水,就能主动提供服务。
这里会用到强化学习,它教会机器人三个功能:第一,如何学习新的能力;第二,如何学习新的能力。
第二,如何每次都做得更好;第三,如何主动提供正确的服务。
每次做得更好的问题需要通过小样本的强化学习来解决。
我们希望机器人每次都做得更好,这就需要猜测,而猜测本身也需要优化。
猜测的目的主要有两个。
首先,有时无法进行标记。
例如,王爷爷走到桌子边可能是在找水,或者走到柜子边是在找药。
不过,这件事不能贴上标签。
机器人需要主动收集样本并向自身报告。
进行注释。
强化学习需要不断探索和优化,才能让机器人变得更聪明。
当然,机器人学习仍然面临着巨大的挑战。
例如,人类的关节是全向关节,但机器人无法做到这一点。
每个关节只能向一个方向旋转。
如果我们想将人类的动作映射到机器人上,我们需要进行泛化,使其能够适应机器人独特的运动特性。
另外,申请时还必须考虑抽样费用的预算。
当学习一项新的表演时,机器人必须一次性学会所有内容。

我们需要考虑采样成本,并将更高级的要求与可用于实际机器人学习的水平进行比较。
人工智能将取代人类的说法已经深入人心。
一度引起一阵恐慌。
听了英特尔研究院工程师的讲解,笔者感觉那个时代还很遥远。
机器人需要经过长时间的自学习才能熟练地理解空间和语义。
现阶段,要实现真正的智能化,似乎还需要计算能力和存储能力的进一步提升,硬件技术和软件算法还有很大的提升空间。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-17
06-18
06-18
06-18
06-18
06-18
06-18
最新文章
英特尔收购芯片制造商eASIC,进一步减少对CPU的依赖
西门子携手现代汽车、起亚公司,共同推动交通运输行业数字化转型
行业领导者制定 Open Eye MSA 来帮助实现高速光连接应用
三星电子和 NAVER 合作
意法半导体和 Leti 合作开发 GaN-on-Si 功率转换技术
青岛将大力发展高世代TFT-LCD和Micro LED项目
长电科技参加IMAPS器件封装大会
三星正式发布Exynos 990旗舰处理器