请选择 进入手机版 | 继续访问电脑版
开启辅助访问
链路首页链路财经目前收录 币种 : 4908 交易所 : 310钱包 : 13 24H 交易量 : $7,475,254,342 总市值 : $237,684,052,900

谷歌正在教AI人类如何拥抱,做菜,和打架



  • 硅谷Live / 实地探访 / 热点探秘 / 深度探讨




    机器以后会拥抱,做菜,和打架....





    那些将被用来强化未来机器人和内容筛选功能的AI,如今有了一个新的理解人类的信息源。




    谷歌,Youtube的所有者,在十月十九日宣布他们有了一个新的电影片段数据库,将被用来帮助机器理解人类在生活中的举止。这个数据库的名字叫做AVA,而里面的视频看起来也和正常的没有什么不同。这些视频大多三秒左右,里面的人在正常地喝酒做饭。但是每一个片段都有一个绑定文档将机器需要学习的人物的动作标记出来,并描述出主人公的姿势,以及他们正在接触的是人还是物体。还记得你小时候大人指着一只狗告诉你“那是一条狗”吗?这一数据库就是其人工智能版本。


    当视频中有超过一个人时,每个人都有他们自己的标签。这样,算法可以了解到在正常社交中两个人见面是需要握手的。



    这一科技可以帮助谷歌分析Youtube上成千上万的视频内容。他可以根据你正在看什么来为你推荐广告或者进行内容审核。其最终的目标是教会计算机“社交视觉智能”。在一篇关于这个项目的研究报告中,作者解释道,所谓“社交视觉智能”指的是可以理解人们在做什么,他们将要做什么,以及他们想要达成什么目标。


    AVA这一数据库有着57600条标好标签的视频,覆盖了80种动作。例如站立,说话,聆听和行走这样的简单动作,每一个都在数据库中有着超过一万条视频标签。同时,研究者也在论文中承认,使用电影片段确实也带来了一些副作用,因为电影制作中一些动作总是会被过分戏剧化地诠释,而并不能完全接近日常生活。


    “我们并没有认为这些数据是完美的,”研究者如此写道,“但是这些数据比用户自行上传的,例如如何逗宠物,如何给孩子过生日这一类视频要接近日常生活的多。”


    论文表明他们正在试图找到“不同国家最优秀的表演者,”但是并没有详细阐述这一数据库是否有种族歧视和性别歧视。


    想和探长聊一聊?来加探长个人微信号 svinsight




    推荐阅读


    卫哲 | 王刚 | 姚劲波

    胡海泉 | 朱啸虎

    区块链报告 | 脑机接口报告 

    硅谷人工智能 | 斯坦福校长

    王者荣耀 | 返老还童 




您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表