一个程序员,如何获奥斯卡?

  程序员也可以拿奥斯卡?

  是的,奥斯卡奖是美国电影艺术与科学学院奖的别称,正式名称叫“学院奖”( Academy Awards)。

  奥斯卡科技成果奖(Academy Scientific and Technical Awards)是由美国电影艺术与科学学院颁发的一项科学技术奖,颁发对象为在科技成就上对电影产业进步有杰出贡献的个人或公司。科技成果奖的颁发在奥斯卡金像奖之前,今年会在2月份举行。

  所以程序员们努把力还是可以拿奥斯卡科技成果奖。

  今天探长就去采访了一位拿了奥斯卡科技成果奖的大神Kiran Bhat。

  Kiran Bhat毕业于卡耐基梅隆大学机器人系,后在著名的电影特效公司,工业光魔ILM领导特效相关的工作,如今创办了人工智能公司Loom.ai。

  让演员起死回“生”

  (图片来源:Jason Sun)

  Kiran Bhat帮助建立了工业光魔的面部捕捉系统,同时是电影《复仇者联盟》和《加勒比海盗》这两部电影面部效果的研发负责人。在电影《复仇者联盟》,Kiran研发的这套系统根据好莱坞演员Mark Ruffalo的表情,自动化的生成了绿巨人的面部表情。

  (左为Peter Cushing,右为Guy Henry

  《星球大战外传:侠盗一号》“塔金”由英国演员彼得·库欣(Peter Cushing)饰演,他是位老牌英国演员,已于1994年去世。

  为了让他在大银幕上复活,Kiran Bhat领导的团队找了一位和彼得·库欣身材相貌接近的英国演员盖伊·亨利(Guy Henry),让他通过动作捕捉在拍摄现场进行表演,然后在后期制作时复活了“塔金”。

  由于他在工业光魔建立脸部表情捕捉系统的突出成就,Kiran Bhat在今年荣获2017年美国电影艺术与科学学院颁发的奥斯卡科技成果奖。

  (右为Loom.ai CEO Mahesh)

  去年Kiran Bhat从工业光魔离职,和前梦工厂特效总监Mahesh Ramasubramanian 创办了Loom.ai,并担任公司CTO。Mahesh在DreamWorks工作近20年,制作的电影有史莱克、马达加斯加系列。而两获奥斯卡科技成果奖的斯坦福计算机图形学教授Ron Fedkiw为Loom.ai的顾问。

  Loom.ai目前已获Y Combinator、丹华资本等机构的投资。

  让普通人享受好莱坞明星的待遇

  Loom.ai研发的系统能从单个正面图片生成令人震惊的现实化身,这项技术结合了计算机视觉、机器学习和电影业的技术。

  赶紧来看看用几张名人的照片就做出的3D动态形象效果吧。有安吉丽娜·朱莉、Kanye West、Elon Musk等等。

  (利用右上角图片构建的安吉丽娜·朱莉)

  Loom.ai构建的新的计算机算法套件将为每个人建立可信的3D Avatar,这个过程在以前是非常昂贵的,并且只有好莱坞演员能享受到。实际上Kiran Bhat过去在好莱坞的大量工作就是捕捉演员的表情,为好莱坞演员打造Avatar。

  如今Kiran Bhat要让普通人也享受好莱坞明星享受的待遇,他们希望提供一套云端的工具,提供给开发者和商家,而这套工具能够将普通的图片转换为3D Avatar。

  (看这眉眼之间的细节处理,简直令人发指啊!)

  当然,这个系统做出来的效果也并不是十全十美的,在头发、牙齿和细纹的处理上,还有待提高。不过,在目前的技术中,Loom.ai已经做得很不错啦!

  站在科学与艺术交叉路口

  Loom.ai目前的3D重构技术有几大优势:第一是低成本,无需要深度摄像头或者SLAM设备,也无需RGB相机矩阵;第二是高仿真,高精度还原人脸细节,可以动画模拟脸部表情;第三是低延时,重建技术可以在手机设备上实时完成。

  这个技术也包括两个难点:第一个是将人的形象电子化,把一个二维的照片变成三维的电子形象,需要提取足够特征来重建一个人的脸部,也就是建模,获得“facial rig”。第二个难点则是动画,在动画上需要能够还原人的微表情和其他细节,能够很好的表达人的情感。只有把这些都捕捉了,才能让其他人相信这有真实性。

  Loom.ai表示他们的一大特点就是他们的系统能够很好的捕捉个人的人格,一方面他们构建的“facial rig”(骨架)不仅能捕捉你正常情绪下的面部特征,而且有能力捕捉微笑、愤怒、悲伤等表情的特征,不过这个需要多张图片通过学习来获得。

  在特效领域,一个制作好的模型就像一尊雕像,并不能运动或者被驱动,所以rig的任务就是为模型添加骨骼和控制器,通过加入蒙皮、约束以及其它变形器等方式,让模型能够通过控制器被控制。要捕捉个人的人格,在动画上则也需要捕捉个人的人物特性,能够很好地还原一个人的动作。

  (看看这小表情)

  Loom.ai用照片构建的这个模型分解过滤掉照明因素,生成了AAA级别的“facial rig”,可以用于生成其他场景下的3D动画和动态交互,能很好地复用于其他场景,比利用3D扫描方式生成的3D模型更强大。

  Loom.ai之所以选择单张正面图片作为数据源,一方面是因为对于普通消费者而言,图片的获得更容易也更标准化,如果使用其他的方式,比如视频等作为数据源,虽然看起来提供的信息更丰富,但也为标准化带来挑战。“不过我们的系统也可以将视频等其他信息结合起来”,Kiran Bhat在采访中表示。

  总而言之这些不仅是个科学的问题,而且也是个艺术的问题,Kiran Bhat过去长期的工作都是在大屏幕上做这个事情,并且已经将这个问题成功的解决了,积累了大量的经验。

  Kiran Bhat也在采访中表示,其实在手机这样的小屏幕上能够做好这件事情的技术门槛不比大屏幕上低。Kiran Bhat表示其实在小屏幕上做好了也能很好的迁移到大屏幕上,这大大超出他原本的想法。

  (Loom.ai团队)

  Loom.ai目前团队包括哥伦比亚大学、卡耐基梅隆大学、康奈尔大学的研究者和梦工厂、工业光魔等公司的工业界资深人士,他们很多人拥有几十年的专业经验。

  Loom.ai目前主要是B2B2C模式,他们已经开发了一套云端API和SDK,而企业用户则利用他们的系统提供服务给开发者。Loom.ai希望通过技术授权等方式来盈利,目前已经开放商家内测中。

  未来虚拟世界的代言人

  Loom.ai的愿景是为消费者构建用起来像是真的3D Avatar,将虚拟通信带入生活。

  这些3D Avatar可用于VR社交,游戏,电商等领域。想象一下,如果你和同学之间发的表情包都是真实头像做的,这会是一种怎么样的场景?

  如果你玩的《模拟人生》里面的人物都是真实的Avatar,这会是一种怎么样的奇妙的感觉?

  这些3D Avatar同样能够应用于电商等各种领域,拥有巨大的想象空间,毕竟个性化是未来的趋势。

  当然VR/AR是另外一块更有想象空间的领域,未来利用3D Avatar开虚拟会议,不仅能传递你的声音,还能完美重现你的表情。

  很有可能未来这些3D Avatar将会是我们在虚拟世界的代言者和通行证,能够完美的代表我们。

  所以,以后估计都不用修图软件了,晒朋友圈直接晒个3D Avatar,想想是不是还有点小激动?

声明:本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
推荐阅读