用 Python 实现隐身,我可以

资讯 作者:CSDN 2021-05-14 11:29:00 阅读:512

作者 | 李秋键

头图 | 下载于视觉中国

出品 | AI 科技大本营(ID:rgznai100)

视频和图像的隐身术是指在视频或者图像中中,在没有任何输入遮罩的情况下,通过框选目标体,使得程序实现自动去除视频中的文本叠加和修复被遮挡部分的问题。并且最近的基于深度学习的修复方法只处理单个图像,并且大多假设损坏像素的位置是已知的,故我们的目标是在没有蒙皮信息的视频序列中自动去除文本。

今天,我们通过搭建一个简单而有效的快速视频解码器框架去实现视频中物体的去除。流程是构建一个编码器-解码器模型,其中编码器采用多个源帧,可以提供从场景动态显示的可见像素。这些提示被聚合并输入到解码器中。然后通过应用循环反馈进一步改进加强模型。循环反馈不仅加强了时间相干性,而且提供了强大的线索。

实现效果如下可见:


模型建立

1.1 环境要求
本次环境使用的是python3.6.5+windows平台
主要用的库有:
argparse模块是python自带的命令行参数解析包,可以用来方便地读取命令行参数;
subprocess是Python 2.4中新增的一个模块,它允许你生成新的进程,连接到它们的 input/output/error 管道,并获取它们的返回(状态)码。这个模块的目的在于替换几个旧的模块和方法
numpy模块用来矩阵和数据的运算处理,其中也包括和深度学习框架之间的交互等。
torch模块是一个python优先的深度学习框架,是一个和tensorflow,Caffe,MXnet一样,非常底层的框架在这里我们用来搭建网络层和直接读取数据集操作,简单方便。
Matplotlib模块用来可视化训练效果等数据图的制作。
1.2 程序的启动
程序的运行方式如下:
1、直接运行demo.py文件对图片进行处理
2、对视频进行处理python demo.py --data data/bag.avi。
import argparse
from mask import mask
from inpaint import inpaint
parser = argparse.ArgumentParser(description='Demo')
parser.add_argument('--resume'default='cp/SiamMask_DAVIS.pth'type=str,
                    metavar='PATH', help='path to latest checkpoint (default: none)')
parser.add_argument('--data'default='data/Human6', help='videos or image files')
parser.add_argument('--mask-dilation'default=32type=int, help='mask dilation when inpainting')
args = parser.parse_args()
mask(args)
inpaint(args)

1.3 算法概述

视频中物体的移除目的是从有字幕、有噪声的视频帧中预测原始帧。恢复的区域应该和原始的相同大小,或者无缝地融合到周围的像素中。基本的算法思想是从多个相邻帧(源帧)中收集提示,然后恢复目标帧。这是为了利用视频中的场景动态,在视频中,随着物体的移动或字幕的变化,被遮挡的部分通常会在滞后或引导帧中显示。同时还可以使用循环反馈连接作为额外的源流。直接估计一帧中的所有像素可能会不必要地接触到未损坏的像素。为了解决像素指标缺失的问题,采用残差学习算法对模型进行训练。具体来说,最终输出是通过按像素顺序将输入中心帧和预测残差图像相加得到的。这使得我们的网络明确地只关注损坏的像素,也防止全局色调失真。
1.4模型的搭建
模型算法核心设计是一个混合的编码器-解码器模型,其中编码器包括两个子网络:3D CNN和2D CNN。解码器遵循一个正常的2D CNN设计,该网络被设计成完全卷积的,可以处理任意大小的输入。最后的输出视频是通过自回归的方式应用函数得到的,我们的策略是从多个源帧中收集潜在的线索,这些帧可以提供从场景动态中显示的可见像素。此外,我们强制目标帧的生成与前一代保持一致。通过构造一个双流混合编码器,其中每个源流都经过训练以实现我们的目标。第一个编码器流由3D卷积组成,它可以直接从相邻帧捕获时空特征,第二个流是一个2D CNN,它将先前生成的尺寸为H×W×1×C的帧作为输入。
其中模型生成如下:
try: 
    assert(opt.model == 'vinet_final')
    model = vinet.VINet_final(opt=opt)
except:
    print('Model name should be: vinet_final')
assert(opt.no_cuda is False)
model = model.cuda()
model = nn.DataParallel(model)
loaded, empty = 0,0
if opt.pretrain_path:
    print('Loading pretrained model {}'.format(opt.pretrain_path))
    pretrain = torch.load(opt.pretrain_path)
    child_dict = model.state_dict()
    parent_list = pretrain['state_dict'].keys()
    parent_dict = {}
    for chi,_ in child_dict.items():
        if chi in parent_list:
            parent_dict[chi] = pretrain['state_dict'][chi]
            #print('Loaded: ',chi)
            loaded += 1
        else:
            #print('Empty:',chi)
            empty += 1
    print('Loaded: %d/%d params'%(loadedloaded+empty))
    child_dict.update(parent_dict)
    model.load_state_dict(child_dict)  


视频处理

2.1 预定义
我们的任务将视频去除目标后尽可能的还原成背景场景。如果场景移动或者字幕在相邻帧中消失,被遮挡的部分就会被显示出来,这就为潜在的内容提供了关键的线索。为了使增益参数的最大化,需要为我们的模型找到最佳的帧采样间隔。当最小间隔为1时,输入帧将包含不重要的动态。另一方面,如果我们以较大的步伐跳跃,不相干的新场景就会被包括进来。最终通过测试,设定的参数如下:
opt = Object()
opt.crop_size = 512
opt.double_size = True if opt.crop_size == 512 else False
########## DAVIS
DAVIS_ROOT =os.path.join('results', args.data)
DTset = DAVIS(DAVIS_ROOT, mask_dilation=args.mask_dilation, size=(opt.crop_size, opt.crop_size))
DTloader = data.DataLoader(DTset, batch_size=1, shuffle=False, num_workers=1)
opt.search_range = 4  # fixed as 4: search range for flow subnetworks
opt.pretrain_path = 'cp/save_agg_rec_512.pth'
opt.result_path = 'results/inpainting'
opt.model = 'vinet_final'
opt.batch_norm = False
opt.no_cuda = False  # use GPU
opt.no_train = True
opt.test = True
opt.t_stride = 3
opt.loss_on_raw = False
opt.prev_warp = True
opt.save_image = False
opt.save_video = True

2.2 视频处理

我们的模型不仅从当前帧中收集线索,还从未来和过去相邻帧中收集线索。另外,为了保持时间一致性,有条件地生成每一帧到前一帧的输出帧。
with torch.no_grad():
    for seq, (inputs, masks, info) in enumerate(DTloader):
        idx = torch.LongTensor([i for i in range(pre - 1-1-1)])
        pre_inputs = inputs[:, :, :pre].index_select(2, idx)
        pre_masks = masks[:, :, :pre].index_select(2, idx)
        inputs = torch.cat((pre_inputs, inputs), 2)
        masks = torch.cat((pre_masks, masks), 2)
        bs = inputs.size(0)
        num_frames = inputs.size(2)
        seq_name = info['name'][0]
        save_path = os.path.join(opt.result_path, seq_name)
        if not os.path.exists(save_path) and opt.save_image:
            os.makedirs(save_path)
        inputs = 2. * inputs - 1
        inverse_masks = 1 - masks
        masked_inputs = inputs.clone() * inverse_masks
        masks = to_var(masks)
        masked_inputs = to_var(masked_inputs)
        inputs = to_var(inputs)
        total_time = 0.
        in_frames = []
        out_frames = []
        lstm_state = None
        for t in range(num_frames):
            masked_inputs_ = []
            masks_ = []
            if t < 2 * ts:
                masked_inputs_.append(masked_inputs[0, :, abs(t - 2 * ts)])
                masked_inputs_.append(masked_inputs[0, :, abs(t - 1 * ts)])
                masked_inputs_.append(masked_inputs[0, :, t])
                masked_inputs_.append(masked_inputs[0, :, t + 1 * ts])
                masked_inputs_.append(masked_inputs[0, :, t + 2 * ts])
                masks_.append(masks[0, :, abs(t - 2 * ts)])
                masks_.append(masks[0, :, abs(t - 1 * ts)])
                masks_.append(masks[0, :, t])
                masks_.append(masks[0, :, t + 1 * ts])
                masks_.append(masks[0, :, t + 2 * ts])
            elif t > num_frames - 2 * ts - 1:
                masked_inputs_.append(masked_inputs[0, :, t - 2 * ts])
                masked_inputs_.append(masked_inputs[0, :, t - 1 * ts])
                masked_inputs_.append(masked_inputs[0, :, t])
                masked_inputs_.append(masked_inputs[0, :, -1 - abs(num_frames - 1 - t - 1 * ts)])
                masked_inputs_.append(masked_inputs[0, :, -1 - abs(num_frames - 1 - t - 2 * ts)])
                masks_.append(masks[0, :, t - 2 * ts])
                masks_.append(masks[0, :, t - 1 * ts])
                masks_.append(masks[0, :, t])
                masks_.append(masks[0, :, -1 - abs(num_frames - 1 - t - 1 * ts)])
                masks_.append(masks[0, :, -1 - abs(num_frames - 1 - t - 2 * ts)])
            else:
                masked_inputs_.append(masked_inputs[0, :, t - 2 * ts])
                masked_inputs_.append(masked_inputs[0, :, t - 1 * ts])
                masked_inputs_.append(masked_inputs[0, :, t])
                masked_inputs_.append(masked_inputs[0, :, t + 1 * ts])
                masked_inputs_.append(masked_inputs[0, :, t + 2 * ts])
                masks_.append(masks[0, :, t - 2 * ts])
                masks_.append(masks[0, :, t - 1 * ts])
                masks_.append(masks[0, :, t])
                masks_.append(masks[0, :, t + 1 * ts])
                masks_.append(masks[0, :, t + 2 * ts])
            masked_inputs_ = torch.stack(masked_inputs_).permute(1023).unsqueeze(0)
            masks_ = torch.stack(masks_).permute(1023).unsqueeze(0)
            start = time.time()

最终完成效果如下:
作者简介:李秋键,CSDN博客专家,CSDN达人课作者。硕士在读于中国矿业大学,开发有taptap竞赛获奖等。


寒门问题少年到计算机博士,硅谷穷小子是如何成为“创业之神”

这个Wi-Fi安全漏洞偷跑了24年,可能危及全球所有设备!

继小米之后,360 也官宣造车!互联网企业造车到底哪家强?

延伸阅读

在线申请SSL证书行业最低 =>立即申请

[广告]赞助链接:

关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

#
公众号 关注KnowSafe微信公众号
随时掌握互联网精彩
赞助链接