人人可用的在线抠图,还是AI自动化的那种!北大校友的算法被玩出新高度

  杨净发自凹非寺

  现在人人可试可玩的图像分割来了。

  在线 API,只需输入图片网址,即可自动删除目标背景。

  就拿今天凌晨刚夺得欧冠冠军的拜仁来试试手~

  然后就变成了这样。

  不过,也有翻车的时候,就像这头大象。

  分割之后…诶,它的另一只牙去哪了?

  以及,在同时有手和猫的时候。

  它呈现的结果就……有点怪异。

  这项新应用名叫 ObjectCut,在 Reddit 上一经发布,12 小时就获得700+的热度。

  不少网友表示:It’s amazing!

  简单三步,人人可试可玩

  就以上面那头大象为例,使用步骤非常简单。

  首先,任意选择一张图片,复制图片地址。

  第二步,网站上将地址粘贴到指定位置,然后点击 Test Endpoint。

  等待几秒之后,点击旁边生成的网址,就大功告成啦!

  然后就变成了这样一头少了一颗牙的大象。

  还是那个北大校友的研究

  是不是觉得这项技术很熟悉,简单几步就可以去移除图片背景?

  跟之前的 AR 应用 AR Cut & Paste——有异曲同工之妙。

  这两项应用背后的主要技术,都是一个叫做 BASNet 的显著目标检测方法。

  这篇研究入围了 CVPR 2019,其论文一作是位华人小哥哥——秦雪彬,已经于今年 2 月在在加拿大阿尔伯塔大学拿到了博士学位,硕士就读于北京大学。

  BASNet 的核心框架如下图所示,主要由 2 个模块组成:

  第一个模块是预测模块,这是一个类似于U-Net 的密集监督的 Encoder-Decoder 网络,主要功能是从输入图像中学习预测 saliency map。

  第二个模块是多尺度残差细化模块(RRM),主要功能是通过学习残差来细化预测模块得到的 Saliency map,与 groun-truth 之间的残差,从而细化出预测模块的 Saliency map。

  而除了BASNet,还有网友推荐了U2-Net,依然来自同一个作者,其效果更好。

  其研究是《U2 -Net: Going Deeper with Nested U-Structure for Salient Object Detection》

  实验结果像这样:

  同一项技术,不一样的玩法,你觉得这个方法还可以做什么有趣的应用?

  另外,想要去试试这个在线图像分割应用,可戳下方链接哦~

  网址:

  • https://rapidapi.com/objectcut.api/api/background-removal

  参考链接:

  • https://www.reddit.com/r/MachineLearning/comments/if1sdg/p_objectcut_api_that_removes_automatically_image/

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注