tensorflow Seq2seq编码函数详解


tf.contrib.layers.embed_sequence


链接:https://www.tensorflow.org/api_docs/python/tf/contrib/layers/embed_sequence

说明:对序列数据执行embedding操作,输入[batch_size, sequence_length]的tensor,返回[batch_size, sequence_length, embed_dim]的tensor。

例子:

? features = [[1,2,3],[4,5,6]]

? outputs = tf.contrib.layers.embed_sequence(features, vocab_size, embed_dim)

? # 如果embed_dim=4,输出结果为

? [

? [[0.1,0.2,0.3,0.1],[0.2,0.5,0.7,0.2],[0.1,0.6,0.1,0.2]],

? [[0.6,0.2,0.8,0.2],[0.5,0.6,0.9,0.2],[0.3,0.9,0.2,0.2]]

? ]

tf.strided_slice


链接:https://www.tensorflow.org/api_docs/python/tf/strided_slice

说明:对传入的tensor执行切片操作,返回切片后的tensor。主要参数input_, start, end, strides,strides代表切片步长。

例子

? # 'input' is [[[1, 1, 1], [2, 2, 2]],

? #? ? ? ? ? ? [[3, 3, 3], [4, 4, 4]],

? #? ? ? ? ? ? [[5, 5, 5], [6, 6, 6]]]

? tf.strided_slice(input, [1, 0, 0], [2, 1, 3], [1, 1, 1]) ==> [[[3, 3, 3]]]

? # 上面一行代码中[1,0,0]分别代表原数组三个维度的切片起始位置,[2,1,3]代表结束位置。

? [1,1,1]代表切片步长,表示在三个维度上切片步长都为1。我们的原始输入数据为3 x 2 x 3,

? 通过参数我们可以得到,第一个维度上切片start=1,end=2,

? 第二个维度start=0, end=1,第三个维度start=0, end=3。

? 我们从里面的维度来看,原始数据的第三个维度有三个元素,切片操作start=0,end=3,stride=1,代表第三个维度上的元素我们全部保留。

? 同理,在第二个维度上,start=0, end=1, stride=1,代表第二个维度上只保留第一个切片,这样我们就只剩下[[[1,1,1]],[[3,3,3]],[[5,5,5]]]。

? 接着我们看第一个维度,start=1, end=2, stride=1代表只取第二个切片,因此得到[[[3,3,3]]。以下两个例子同理。

? tf.strided_slice(input, [1, 0, 0], [2, 2, 3], [1, 1, 1])?

==> [[[3, 3, 3],

? ? ? ? [4, 4, 4]]]

? tf.strided_slice(input, [1, -1, 0], [2, -3, 3], [1, -1, 1])

?==>[[[4, 4, 4],

? ? ? ? [3, 3, 3]]]

tf.contrib.rnn.MultiRNNCell


链接:https://www.tensorflow.org/api_docs/python/tf/contrib/rnn/MultiRNNCell

说明:对RNN单元按序列堆叠。接受参数为一个由RNN cell组成的list。

例子:

? # rnn_size代表一个rnn单元中隐层节点数量,layer_nums代表堆叠的rnn cell个数

? lstm = tf.contrib.rnn.BasicLSTMCell(rnn_size)

? composed_cell = tf.contrib.rnn.MultiRNNCell([lstm for _ in range(num_layers)])

? # 上面这种写法在tensorflow1.0中是可以运行的,但在tensorflow1.1版本中,以上构造的lstm单元不允许复用,要重新生成新的对象,因此在源码中,函数中嵌套了一个定义cell的函数,从而保证每次生成新的对象实例。

? def get_lstm(rnn_size):

? lstm = tf.contrib.rnn.BasicLSTMCell(rnn_size)

? return lstm

? composed_cell = tf.contrib.rnn.MultiRNNCell([get_lstm(rnn_size) for _ in range(num_layers)])

tf.nn.dynamic_rnn


链接:https://www.tensorflow.org/api_docs/python/tf/nn/dynamic_rnn

说明:构建RNN,接受动态输入序列。返回RNN的输出以及最终状态的tensor。dynamic_rnn与rnn的区别在于,dynamic_rnn对于不同的batch,可以接收不同的sequence_length,例如,第一个batch是[batch_size,10],第二个batch是[batch_size,20]。而rnn只能接收定长的sequence_length。

例子:

? output, state = tf.nn.dynamic_rnn(cell, inputs)

tf.tile


链接:https://www.tensorflow.org/api_docs/python/tf/tile

说明:对输入的tensor进行复制,返回复制后的tensor。主要参数是input和multiples。

例子:

? # 伪代码

? input = [a, b, c, d]

? output = tf.tile(input, 2)

? # output = [a, b, c, d, a, b, c, d]

? input = [[1,2,3], [4,5,6]]

? output = tf.tile(input, [2, 3])

? # output = [[1,2,3,1,2,3,1,2,3],

? ? [4,5,6,4,5,6,4,5,6],

? ? [1,2,3,1,2,3,1,2,3],

? ? [4,5,6,4,5,6,4,5,6]]

tf.fill


链接:https://www.tensorflow.org/api_docs/python/tf/fill

说明:主要参数为dims和value,构造一个由value填充的形状为dims的tensor。

例子:

? tf.fill([2,3],9) => [[9,9,9],[9,9,9]]

tf.contrib.seq2seq.TrainingHelper


链接:https://www.tensorflow.org/api_docs/python/tf/contrib/seq2seq/TrainingHelper

说明:Decoder端用来训练的函数。这个函数不会把t-1阶段的输出作为t阶段的输入,而是把target中的真实值直接输入给RNN。主要参数是inputs和sequence_length。返回helper对象,可以作为BasicDecoder函数的参数。

例子:

? training_helper = tf.contrib.seq2seq.TrainingHelper(inputs=decoder_embed_input,

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? sequence_length=target_sequence_length,

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? time_major=False)

tf.contrib.seq2seq.BasicDecoder


链接:https://www.tensorflow.org/api_docs/python/tf/contrib/seq2seq/BasicDecoder

说明:生成基本解码器对象

例子:

? # cell为RNN层,training_helper是由TrainingHelper生成的对象,

? encoder_state是RNN的初始状态tensor,

? output_layer代表输出层,它是一个tf.layers.Layer的对象。

? training_decoder = tf.contrib.seq2seq.BasicDecoder(cell,

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? training_helper,

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? encoder_state,

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? output_layer)

tf.contrib.seq2seq.dynamic_decode


链接:https://www.tensorflow.org/api_docs/python/tf/contrib/seq2seq/dynamic_decode

说明:对decoder执行dynamic decoding。通过maximum_iterations参数定义最大序列长度。

tf.contrib.seq2seq.GreedyEmbeddingHelper


链接:https://www.tensorflow.org/api_docs/python/tf/contrib/seq2seq/GreedyEmbeddingHelper

说明:它和TrainingHelper的区别在于它会把t-1下的输出进行embedding后再输入给RNN。

tf.sequence_mask


链接:https://www.tensorflow.org/api_docs/python/tf/sequence_mask

说明:对tensor进行mask,返回True和False组成的tensor

例子:

? # 伪代码

? tf.sequence_mask([1,3,2],5) =>

? [[True, False, False, False, False],

? [True, True, True, False, False],

? [True, True, False, False, False]]

? # 其中dtype默认是tf.bool,在我们的代码中使用tf.float32,这是为后面计算loss生成权重。

tf.contrib.seq2seq.sequence_loss


链接:https://www.tensorflow.org/api_docs/python/tf/contrib/seq2seq/sequence_loss

说明:对序列logits计算加权交叉熵。

例子:

? # training_logits是输出层的结果,targets是目标值,masks是我们使用tf.sequence_mask计算的结果,在这里作为权重,也就是说我们在计算交叉熵时不会把<PAD>计算进去。

? cost = tf.contrib.seq2seq.sequence_loss(

? training_logits,

? targets,

? masks)

?著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,128评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,316评论 3 388
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事?!?“怎么了?”我有些...
    开封第一讲书人阅读 159,737评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,283评论 1 287
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,384评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,458评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,467评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,251评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,688评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,980评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,155评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,818评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,492评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,142评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,382评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,020评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,044评论 2 352

推荐阅读更多精彩内容