微视稀有令牌的获取方法是什么?
微视稀有令牌怎么得?
可通过以下 *** 获得
1.登录微视,使用微视完成签到、看视频、发布视频、做任务都可以得到稀有令牌等任务可以获得精英令。
2.和好友互换精英令,可以让朋友赠送精英令。
3.通过参与微视中的挑战赛来获得精英令。
4.通过每天观看直播,达到一定时长即可获得精英令。
5.通过邀请好友获得精英令。
拓展资料:
微视,腾讯旗下短视频创作平台与分享社区 ,用户不仅可以在微视上浏览各种短视频,同时还可以通过创作短视频来分享自己的所见所闻。此外,微视还结合了微信和 *** 等社交平台,用户可以将微视上的视频分享给好友和社交平台。
2018年4月2日,腾讯微视发布2018年首次重大更新,推出三大首创功能,视频跟拍、歌词字幕、一键美型,并打通 *** 音乐千万正版曲库,进行全面的品牌及产品升级。增加歌词字幕玩法,用户在选择背景音乐之后,录制视频时可选择显示歌词字幕,实现轻松跟唱。
2019年4月,微视上线新版本,推出 “创造营助力”、“解锁技能”等全新模板。用户可通过微视的模板 *** 互动视频,并通过微信、 *** 等社交平台分享给好友;好友可直接在微信、 *** 里浏览该互动视频,并进行互动操作。
深度学习可以自动生成图像的文本描述吗?
对图像搜索和帮助视觉障碍者「查看」世界等应用而言,让图像带有文本描述是非常有价值的。使用人力标注显然不现实,而随着深度学习技术的发展,使用机器为图像自动生成准确的文本描述成为了可能。Jason Brownlee 博士的这篇文章对使用深度学习的图像描述进行了介绍。
图像描述涉及到为给定图像(比如照片)生成人类可读的文本描述。这个问题对人类而言非常简单,但对机器来说却非常困难,因为它既涉及到理解图像的内容,还涉及到将理解到的内容翻译成自然语言。
最近,在为图像自动生成描述(称为「字幕」)的问题上,深度学习 *** 已经替代了经典 *** 并实现了当前更佳的结果。在这篇文章中,你将了解可以如何使用深度神经 *** 模型为照片等图像自动生成描述。
读完本文之后,你将了解:
为图像生成文本描述的难点以及将计算机视觉和自然语言处理领域的突破结合起来的必要性。
神经特征描述模型(即特征提取器和语言模型)的组成元素。
可以如何将这些模型元素组合到编码器-解码器(Encoder-Decoder)中,也许还会用到注意机制。
概述
这篇文章分为三部分,分别是:
1. 使用文本描述图像
2. 神经描述模型
3. 编码器-解码器结构
使用文本描述图像
描述图像是指为图像(比如某个物体或场景的照片)生成人类可读的文本描述。
这个问题有时候也被称为「自动图像标注」或「图像标注」。
这个问题对人类而言轻而易举,但对机器来说却非常困难。
快速一瞥足以让人类指出和描述一个视觉场景的丰富细节。但事实证明,我们的视觉识别模型难以掌握这样出色的能力。
——《用于生成图像描述的深度视觉-语义对齐》,2015
要解决这个问题,既需要理解图像的内容,也需要将其中的含义用词语表达出来,并且所表达出的词语必须以正确的方式串接起来才能被理解。这需要将计算机视觉和自然语言处理结合起来,是广义的人工智能领域的一大难题。
自动描述图像内容是人工智能领域的一个基本问题,该问题将计算机视觉和自然语言处理连接到了一起。
——《Show and Tell:一种神经图像描述生成器》,2015
此外,这个问题也有不同的难度;让我们通过例子看看这个问题的三种不同变体。
1. 分类图像
从数百个或数千个已知分类中为图像分配一个类别标签。
将图像分类到已知类别的示例;来自《检测鳄梨到西葫芦:我们已经实现了什么与我们将会实现什么?》,2013
2. 描述图像
生成图像内容的文本描述。
为照片生成描述的示例;来自《用于视觉识别和描述的长期循环卷积 *** 》,2015
3. 标注图像
为图像中的特定区域生成文本描述。
用描述标注图像区域的示例;来自《用于生成图像描述的深度视觉-语义对齐》,2015
这个问题还可以延伸到随时间描述视频中的图像。
在这篇文章中,我们关注的重点是描述图像,我们称之为图像描述(image captioning)。
神经描述模型
神经 *** 模型已经主导了自动描述生成领域;这主要是因为这种 *** 得到了当前更佳的结果。
在端到端的神经 *** 模型之前,生成图像描述的两种主要 *** 是基于模板的 *** 和基于最近邻并修改已有描述的 *** 。
在将神经 *** 用于生成描述之前,有两种 *** 占主导地位。之一种涉及到生成描述模板,该模板会基于目标检测和属性发现(attribute discovery)的结果进行填充。第二种 *** 是首先从一个大型数据库中检索有描述的相似图像,然后修改这些检索到的描述以符合查询的情况。…… 在现在占主导地位的神经 *** *** 出现后,这两种 *** 都已经失去了人们的支持。
——《Show and Tell:一种神经图像描述生成器》,2015
用于描述的神经 *** 模型涉及到两个主要元素:
1. 特征提取
2. 语言模型
特征提取模型
特征提取模型是一种神经 *** 。给定一张图像,它可以提取出显著的特征,通常用固定长度的向量表示。
提取出的特征是该图像的内部表征,不是人类可以直接理解的东西。
用作特征提取子模型的通常是深度卷积神经 *** (CNN)。这种 *** 可以在图像描述数据集中的图像上直接训练。
或者可以使用预训练的模型(比如用于图像分类的当前更佳的模型),或者也可以使用混合 *** ,即使用预训练的模型并根据实际问题进行微调。
使用为 ILSVRC 挑战赛在 ImageNet 数据集上开发的表现更好的模型是很常见的做法,比如 Oxford Vision Geometry Group 模型,简称 VGG。
……我们探索了多种解决过拟合的技术。避免过拟合的最明显 *** 是将我们系统中的 CNN 组件的权重初始化为一个预训练的模型。
——《Show and Tell:一种神经图像描述生成器》,2015
特征提取器
语言模型
一般而言,当一个序列已经给出了一些词时,语言模型可以预测该序列的下一个词的概率。
对于图像描述,语言模型这种神经 *** 可以基于 *** 提取出的特征预测描述中的词序列并根据已经生成的词构建描述。
常用的 *** 是使用循环神经 *** 作为语言模型,比如长短期记忆 *** (LSTM)。每个输出时间步骤都会在序列中生成一个新词。
然后每个生成的词都会使用一个词嵌入(比如 word2vec)进行编码,该编码会作为输入被传递给解码器以生成后续的词。
对该模型的一种改进 *** 是为输出序列收集词在词汇库中的概率分布并搜索它以生成多个可能的描述。这些描述可以根据似然(likelihood)进行评分和排序。常见的方式是使用波束搜索(Beam Search)进行这种搜索。
语言模型可以使用从图像数据集提取出的预计算的特征单独训练得到;也可以使用特征提取 *** 或某些组合 *** 来联合训练得到。
语言模型
编码器-解码器架构
构建子模型的一种常用 *** 是使用编码器-解码器架构,其中两个模型是联合训练的。
这种模型的基础是将图像编码成紧凑的表征的卷积神经 *** ,后面跟着一个循环神经 *** 来生成对应的句子。这种模型的训练目标是更大化给定图像的句子的似然。
——《Show and Tell:一种神经图像描述生成器》,2015
这种架构原本是为机器翻译开发的,其中输入的序列(比如法语)会被一个编码器 *** 编码成固定长度的向量。然后一个分立的解码器 *** 会读取这些编码并用另一种语言(比如英语)生成输出序列。
除了能力出色外,这种 *** 的好处是可以在该问题上训练单个端到端模型。
当将该 *** 用于图像描述时,编码器 *** 使用了深度卷积神经 *** ,解码器 *** 则是 LSTM 层的堆叠。
在机器翻译中,「编码器」RNN 会读取源句子并将其转换成信息丰富的固定长度的向量表征,这种表征又会被用作「解码器」RNN 的初始隐藏状态,进而生成目标句子。我们在这里提出遵循这种优雅的方案,并使用深度卷积神经 *** (CNN)替代编码器 RNN。
——《Show and Tell:一种神经图像描述生成器》,2015
CNN 和 LSTM 架构的示例,来自《Show and Tell:一种神经图像描述生成器》,2015
使用注意机制的描述模型
编码器-解码器的一个局限性是使用了单个固定长度的表征来保存提取出的特征。
在机器翻译中,这个问题通过在更丰富的编码上开发的注意机制而得到了解决,从而让解码器可以学习在生成翻译中的每个词时应该注意哪里。
这种 *** 也已经被用于改进用于图像描述的编码器-解码器架构的表现水平——让解码器可以学习在生成描述中每个词时应该关注图像中的哪些部分。
受近来描述生成方面的进步的激励和在机器翻译和目标识别中成功应用注意机制的启发,我们调查了在生成描述时可以关注图像中突出部分的模型。
——《Show and Tell:一种神经图像描述生成器》,2015
这种 *** 的一大优势是可以准确可视化在生成描述中的每个词时所注意的位置。
我们还通过可视化展示了模型在生成输出序列中对应的词时自动学习关注突出对象的方式。
——《Show and Tell:一种神经图像描述生成器》,2015
用例子理解最简单,如下:
使用注意的图像描述示例,来自《Show and Tell:一种神经图像描述生成器》,2015
进阶阅读
如果你还想进一步更深入地了解图像描述,可以参看这里给出的资源。
论文
《Show and Tell:一种神经图像描述生成器(Show and Tell: A Neural Image Caption Generator)》,2015:
《Show, Attend and Tell:使用视觉注意的神经图像描述生成(Show, Attend and Tell: Neural Image Caption Generation with Visual Attention)》,2015:
《用于视觉识别和描述的长期循环卷积 *** (Long-term recurrent convolutional networks for visual recognition and description)》,2015:
《用于生成图像描述的深度视觉-语义对齐(Deep Visual-Semantic Alignments for Generating Image Descriptions)》,2015:
文章
*** :自动图像标注:
Show and Tell:在 TensorFlow 中开源的图像描述:
Andrej Karpathy 和李飞飞:使用卷积 *** 和循环 *** 的自动图像描述;视频: ;幻灯片:
项目
用于生成图像描述的深度视觉-语义对齐,2015:
NeuralTalk2:运行在 GPU 上的有效图像描述 Torch 代码,来自 Andrej Karpathy:
版权声明
本文仅代表作者观点,不代表看看头条立场。
本文系作者授权看看头条发表,未经许可,不得转载。