encoder-decoder 有监督

github地址: https://github.com/jacoxu/encoder_decoder
输入序列文本=['1 2 3 4 5' , '6 7 8 9 10' , '11 12 13 14 15' , '16 17 18 19 20' , '21 22 23 24 25']
目标序列文本 = ['one two three four five' , 'six seven eight nine ten' , 'eleven twelve thirteen fourteen fifteen' , 'sixteen seventeen eighteen nineteen twenty' , 'twenty_one twenty_two twenty_three twenty_four twenty_five']
一些参数如下:(‘Vocab size:’, 51, ‘unique words’) (‘Input max length:’, 5, ‘words’) (‘Target max length:’, 5, ‘words’) (‘Dimension of hidden vectors:’, 20) (‘Number of training stories:’, 5) (‘Number of test stories:’, 5)

tokenize()\W+ 匹配数字和字母下划线的多个字符 ['Bob', 'dropped', 'the', 'apple', '.', 'Where', 'is', 'the', 'apple', '?']

input_list=[['1', '2', '3', '4', '5'], ['6', '7', '8', '9', '10'], ['11', '12', '13', '14', '15'], ['16', '17', '18', '19', '20'], ['21', '22', '23', '24', '25']]

tar_list=[['one', 'two', 'three', 'four', 'five'], ['six', 'seven', 'eight', 'nine', 'ten'], ['eleven', 'twelve', 'thirteen', 'fourteen', 'fifteen'], ['sixteen', 'seventeen', 'eighteen', 'nineteen', 'twenty'], ['twenty_one', 'twenty_two', 'twenty_three', 'twenty_four', 'twenty_five']]

vocab=['1','10','11','12','13','14','15',16','17','18','19',2','20','21','22','23','24','25','3','4','5','6','7',8','9','eight','eighteen','eleven',fifteen','five','four','fourteen','nine',nineteen','one',seven','seventeen','six','sixteen','ten','thirteen','three','twelve','twenty','twenty_five','twenty_four','twenty_one','twenty_three','twenty_two','two']

vocab_size = len(vocab) + 1 = 51

input_maxlen = max(map(len, (x for x in input_list))) # 5

tar_maxlen = max(map(len, (x for x in tar_list))) # 5

output_dim = vocab_size # 51

hidden_dim = 20 # Dimension of hidden vectors

word_to_idx={'1': 1, '10': 2, '11': 3, ... 'twenty_one': 47, 'twenty_three': 48, 'twenty_two': 49, 'two': 50}

idx_to_word={1: '1', 2: '10', 3: '11' ... 49: 'twenty_two', 50: 'two'}

inputs_train, tars_train = vectorize_stories(input_list, tar_list, word_to_idx, input_maxlen, tar_maxlen, vocab_size)

inputs_train=array([[ 1, 12, 19, 20, 21], [22, 23, 24, 25, 2],...[ 8, 9, 10, 11, 13], [14, 15, 16, 17, 18]])

tars_train=array([[[False, False, False, ..., False, False, False],[False, False, False, ..., False, False, True],...]]]

shape=(5,5,51)encoder-decoder

输入序列文本=['1 2 3 4 5' , '6 7 8 9 10' , '11 12 13 14 15' , '16 17 18 19 20' , '21 22 23 24 25']

目标序列文本 = ['one two three four five' , 'six seven eight nine ten' , 'eleven twelve thirteen fourteen fifteen' , 'sixteen seventeen eighteen nineteen twenty' , 'twenty_one twenty_two twenty_three twenty_four twenty_five']

一些参数如下:(‘Vocab size:’, 51, ‘unique words’) (‘Input max length:’, 5, ‘words’) (‘Target max length:’, 5, ‘words’)

(‘Dimension of hidden vectors:’, 20) (‘Number of training stories:’, 5) (‘Number of test stories:’, 5)

tokenize()\W+ 匹配数字和字母下划线的多个字符 ['Bob', 'dropped', 'the', 'apple', '.', 'Where', 'is', 'the', 'apple', '?']

input_list=[['1', '2', '3', '4', '5'], ['6', '7', '8', '9', '10'], ['11', '12', '13', '14', '15'], ['16', '17', '18', '19', '20'], ['21', '22', '23', '24', '25']]

tar_list=[['one', 'two', 'three', 'four', 'five'], ['six', 'seven', 'eight', 'nine', 'ten'], ['eleven', 'twelve', 'thirteen', 'fourteen', 'fifteen'], ['sixteen', 'seventeen', 'eighteen', 'nineteen', 'twenty'], ['twenty_one', 'twenty_two', 'twenty_three', 'twenty_four', 'twenty_five']]

vocab=['1','10','11','12','13','14','15',16','17','18','19',2','20','21','22','23','24','25','3','4','5','6','7',8','9','eight','eighteen','eleven',fifteen','five','four','fourteen','nine',nineteen','one',seven','seventeen','six','sixteen','ten','thirteen','three','twelve','twenty','twenty_five','twenty_four','twenty_one','twenty_three','twenty_two','two']

vocab_size = len(vocab) + 1 = 51

input_maxlen = max(map(len, (x for x in input_list))) # 5

tar_maxlen = max(map(len, (x for x in tar_list))) # 5

output_dim = vocab_size # 51

hidden_dim = 20 # Dimension of hidden vectors

word_to_idx={'1': 1, '10': 2, '11': 3, ... 'twenty_one': 47, 'twenty_three': 48, 'twenty_two': 49, 'two': 50}

idx_to_word={1: '1', 2: '10', 3: '11' ... 49: 'twenty_two', 50: 'two'}

inputs_train, tars_train = vectorize_stories(input_list, tar_list, word_to_idx, input_maxlen, tar_maxlen, vocab_size)

inputs_train=array([[ 1, 12, 19, 20, 21], [22, 23, 24, 25, 2],...[ 8, 9, 10, 11, 13], [14, 15, 16, 17, 18]])

tars_train=array([[[False, False, False, ..., False, False, False],[False, False, False, ..., False, False, True],...]]]

shape=(5,5,51)

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,098评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,213评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,960评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,519评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,512评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,533评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,914评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,574评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,804评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,563评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,644评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,350评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,933评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,908评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,146评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,847评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,361评论 2 342

推荐阅读更多精彩内容