几个月倏忽而过,喧嚣的2o13,在初音、阿狸、FceBook和谷歌的买买买中接近了尾声。01bz.cc
初音网络科技在纳斯达克Ipo的日子,也越来越近了。
自从几个月前顾莫杰开着他的全球第一豪华游艇在哈德逊河口高调开办海上舞会庆祝918spydeR的纽北赛道记录以来,这段时间纽约城里关于他的传说可谓是一日不断。
每一个纽约市民,哪怕原先不关心互联网的,如今都天天把顾莫杰这个名字挂在嘴边。
没办法,换做另一个时空的2o14年,在阿狸上市之前那阵子,纽约街头的出租车司机随便逮到一个黄皮肤乘客,都会八卦一句:嘿!你是不是阿狸的?
何况如今顾莫杰的段位,远比另一个时空2o14年的阿狸高得多。
他已经是仅次于比尔盖茨和沃伦巴菲特的世界第三富有者了,而且和前面两人的差距分别只有2o多亿和8o多亿美元而已。
等Ipo完成,还不是分分钟爆掉前面的人。
这几个月里,市场的发展和技术的进步,也对初音的Ipo非常有利。
在人工智能投资领域,在新一代通讯技术领域,整整几十家新兴独角兽被上述四大全球互联网巨头堆了出来。
美联储Qe后的资金虹吸,在杠杆的作用下,把一切代表未来的科技盲目推高,同时也泡沫横行。
人工智能的具体商业应用,由此进入爆发的风口。
比如,谷歌公司投资的几家基于深度学习原理的人工智能,已经开发出了让机器人写新闻报道类文案的能力——其他需要“文艺创新“的东西谷歌暂时没法攻克,但是“看图作文”这种标准化程度较高的新闻报道采写工作,已经可以被机器攻克了。
据说在美国西部已经有2o多家报社和新闻网站、以及更多的新闻pp采纳租用了谷歌的成果,炒掉了累计上千名人类记者和小编。
谷歌还试图把矛头伸向“让机器人作诗”这个领域——最后他们发现,“确保押韵、语句通顺、且内容有继承性,整体可以读懂的诗”是可以被做出来的。
但是目前也仅限于此。
这事儿初音智能研究院在中国也一样在做,而且同样可以让机器人作出叙事打油诗了。
又比如,谷歌公司在这一年正式消灭了洛杉矶和旧金山两座加州最大城市的执业药剂师工作——这两座城市的所有公立医院和公立药房,都辞退掉了1oo%的药房配药人员,改用谷歌的配药机器人。
医生开出来的处方存储在病人的信息卡里面,或者第一次看病没办卡的临时患者,就给一张二维码纸片。配药的时候到药房把卡插进读卡器,或者扫一下二维码,机器人药剂师就会根据药方抓药。
药品这种仓储管理分类严格的产品,再适合机器人物流不过了,根本不可能存在抓错药的风险。
在中国,阿狸集团旗下的菜鸟物流,在卖给初音智能3o%股份后,利用初音智能提供的自动驾驶技术,已经在钱塘市的初音产业园区和阿狸淘宝城内,实现了这两家公司员工买买买天猫超市货物的自动配送。
菜鸟物流的测试版小g机器人,在两家公司园区里临时划出的‘专用机器人道’上穿梭,把一个个天猫超市提供的标准化包裹送到剁手员工的工位上,然后员工拿出手机屏幕上的二维码,供小g物流机器人头部的扫码射线枪扫描。物流机器人就会把相应的物流抽屉弹开,供货主把里面的东西拿出来。
目前这种机器人已经可以自动存储地图、规避行人、上下电梯规划路线。
然后初音科技园和淘宝城这两个原本钱塘市内快递小哥最繁忙的点,一下子少了一半的快递小哥——剩下的快递小哥,送的都是天猫超市以外的店家卖的货,那些货包装尺寸不标准,所以塞不进小g机器人,也没有天猫物流的标准条码。
谁都相信,菜鸟物流的小g完全可以做到谷歌配药机器人一样的工作。
全人类都在憧憬着客服、柜员、快递员这种低技术含量的岗位,彻底从人类社会消失。
几大人工智能应用的强项公司,市值蹭蹭蹭地往上窜。
到了上市前夕的最后一个月,几个更逆天的应用开始出现了。
“大突破!继数年前FceBook基于深度学习攻克‘人脸识别技术’这一难点后,初音智能近日在上述基础上进一步推出了更新应用:‘读唇语’机器人。
据悉该技术原理与当年的FceBook人脸识别近似,但在FceBook的静态人脸识别基础上,扩展了动态人脸识别。该技术首先解决了FceBook静态人脸识别没法分辨高仿人形玩偶、蜡像与真人区别的问题,采用了‘检测真人眨眼动作’,把高仿假人、蜡像和硅胶面具与真人区别开来。
该技术的出现被认为是未来高安全性‘刷脸支付’金融模式的奠基石。中国最大互联网金融企业蚂蚁金服已经重金求购该项技术,并准备在来年投入到‘支付宝’的应用中。
更进一步的,初音智能在动态人脸识别的基础上,发展出了‘唇语识别技术’,可以根据摄像头对人脸说话的口型判断,记录下其语言。在初音智能公布该项技术之前,据悉已经在公司内部深度学习内侧了一年以上,目前读唇准确率虽然还没有达到6o%,但仍在快速提高中,且已经超越了大多数人类唇语术专家的水平。未来这一技术将会明显造福失聪人群。”
“最新黑科技!在初音智能推出读唇语机器人后仅仅2o天,初音方面再次公布了一项重磅突破‘读心术机器人’。据悉该项技术原理与读唇机器人相近,但以吸收学习类似于热门美剧《LIe-To-》中心理分析专家归纳的面部表情判断方法为主要手段,强化机器人识别人类真实心情的能力。
判断依据主要是人类说话时面部肌肉的抽动程度、嘴角角度、嘴张大的程度、眉毛升降等因素,并通过对细节点位相对位置的大数据分析,作出精确判断。
初音方面认为,该项技术引进之后。目前该技术的判断准确率依然不乐观,但是已经超过了大多数耿直男的水平,而且一两年内就能超越大部分科班学习的人类心理医生。耿直男使用后,可以在解决‘女人说不要,那就是要还是真的不要’这个判断时,准确率大幅度上升。在初音智能的读心术机器人面前,不存在‘嘴上说不要,身体却很诚实’的可能性。”