NLP小项目--emojify(一)

起因

前段时间完成了吴恩达的深度学习第五专题序列模型,里面一些作业都很有意思,包括这个Emojify,根据你输入的话语判断你话语的含义,并且用一个表情来表示,
并且把表情放在语句后,这样就可以实现说话时自动添加最贴切的表情。

具体参考我的github,那是一个keras版本的实现,也是Coursera作业使用的框架,我稍稍改编了一下,
里面有些实现的效果以及模型的结构,这里就不多说了,代码也很简单,容易理解。

本来这么简单感觉没必要写个博客,但是正好用pytorch复现一遍,此间遇到不少坑,所以我打算好好讲解一番。
我将会从制作自己的数据集开始,把这个问题扩展,分成几篇博文,按流程介绍我的实现历程。

这里我不由不说,要看你的框架掌握的怎么样,其实就是看你官方文档看的怎么样,更重要的是,你的官方源码看的怎么样,所以这几篇博文我会嵌入一些官方源码 和官方文档的内容,详细讲解如何利用它们解决自己的问题,因为当你编程的时候你会发现,遇到问题百度是没什么用的,google也不是什么问题都有的。 通过源码,你也会发现各种教程里都不太可能说到的东西。成功运行官方教程里给出的mnist程序,并不是你就会了这个框架,甚至连入门都说不上!一定要通读文档和源码!!

制作数据集

这第一篇博文我主要就想讲解一下如何在pytorch框架中制作自己的数据集,这里不得不说,源码大法好。这里的制作数据集不是
收集数据并且做成对应格式,而是已经有数据了,怎么装载到dataset里,看完博文你就了解了。

emojify数据集构造

首先介绍一下emojify的数据集是什么样子的,其实我建议你去上面我给出的我的github上看一下,上面的介绍很清楚。这里就简单说一下,
这个数据集还是很简单的,每一个traindata就是一句话,string类型,标签就是0-4五个整形的值,代表五个表情(emoji)。testdata也一样,
但是我把所有的testdata和traindata都合在一起了,稍微增大训练集,提升泛化效果,测试我们只需要手动输入一些我们想说的话就好了,
这个项目中测试集并不是很重要。

所以最后的训练数据就是188个样本,但是为了batchsize好选,我删了8个样本,变成180个样本,存在一个csv文件中。csv文件的读取相信不用我多说,
pandas和csv模块都可以轻松读取。

直接加载数据

其实我们可以读取数据,然后保存在列表里,然后用np.random.shuffle打乱一下,大不了再写一个get_batch函数获取批样本,就像下面一样:

    def get_batchs(X,Y,batchsize = 3,batchnum = 0):
        if (batchnum*batchsize+batchsize) >= X.shape[0]:
            bx = X[batchnum * batchsize:]
            by = Y[batchnum * batchsize:]
        else:
            bx = X[batchnum * batchsize:(batchnum * batchsize + batchsize)]
            by = Y[batchnum * batchsize:(batchnum * batchsize + batchsize)]
        return np.array(bx),np.array(by)

就可以在每个step时候调用一下,就可以输入数据了,那么为什么还要制作数据集呢?
因为简单的数据集自然没有必要的,这样处理足够了,但是复杂的比较庞大的数据集呢?一点就是这样写是把所有的数据都加载进来,
因此需要大量的内存,第二是要实现更加复杂的操作比较麻烦,又要添加更多的代码,比如多线程读取数据等等。更重要的是,数据集都不会制作,
如何说掌握了pytorch。

自定义数据集

回忆一下,你是怎么用pytorch实现mnist分类的,具体一点,如何加载mnist数据集的。你是直接用了torchvision.datasets.MNIST,而且
可以指定一些参数,比如是否从云端下载数据集,对数据采用怎么样的变换等等,然后调用 Data.DataLoader,可以让数据集可迭代,
并且可以shffule,指定batchsize等等,然后训练时就可以直接调用了,测试集也一样处理,是不是很方便。那么我们也可以这样吗?

答案是肯定的。如果是图片数据集,你想做一个分类的话,直接用datasets的ImageFolder函数就可以了,只需要注意文件和文件夹的格式
就行了。那么这里的emojify数据集呢?这里就要上源码了,我们先看官方源码的mnist是如何编写的,这里完全是我自己摸索的,然后发现
没什么大问题,所以拿出来说一下。源码在哪看呢?github搜索vision和pytorch,分别是两部分的源码。

class MNIST(data.Dataset):
   urls = [
       'http://yann.lecun.com/exdb/mnist/train-images-idx3-ubyte.gz',
       'http://yann.lecun.com/exdb/mnist/train-labels-idx1-ubyte.gz',
       'http://yann.lecun.com/exdb/mnist/t10k-images-idx3-ubyte.gz',
       'http://yann.lecun.com/exdb/mnist/t10k-labels-idx1-ubyte.gz',
   ]
   raw_folder = 'raw'
   processed_folder = 'processed'
   training_file = 'training.pt'
   test_file = 'test.pt'
   def __init__(self, root, train=True, transform=None, target_transform=None, download=False):
       self.root = os.path.expanduser(root)
       self.transform = transform
       self.target_transform = target_transform
       self.train = train  # training set or test set

       if download:
           self.download()
       if not self._check_exists():
           raise RuntimeError('Dataset not found.' +
                              ' You can use download=True to download it')
       if self.train:
           self.train_data, self.train_labels = torch.load(
               os.path.join(self.root, self.processed_folder, self.training_file))
       else:
           self.test_data, self.test_labels = torch.load(
               os.path.join(self.root, self.processed_folder, self.test_file))

   def __getitem__(self, index):
       img = Image.fromarray(img.numpy(), mode='L')

       if self.transform is not None:
           img = self.transform(img)

       if self.target_transform is not None:
           target = self.target_transform(target)

       return img, target

   def __len__(self):
       if self.train:
           return len(self.train_data)
       else:
           return len(self.test_data)

   def _check_exists(self):
       return os.path.exists(os.path.join(self.root, self.processed_folder, self.training_file)) and \
           os.path.exists(os.path.join(self.root, self.processed_folder, self.test_file))

   def download(self):
       pass

上面是主要代码,download被我删了,这里也不需要,接下来我们直接进行修改,怎么改呢,首先看init方法,赋值部分
都不怎么需要改,虽然本例中几个都用不到,download不需要,所以上面可以直接改成pass,然后把下面的实现删去,
train肯定是True,因为没有测试集,所以else的部分就pass,if self.train:的部分就读取我们的csv数据就好了,
这里string的数据要换成index,我一开始没有,直接加载数据,然后出错,查看源码发现,因为数据会在源码里帮你转化成torch的Tensor,
而torch里没有string的Tensor的,所以要变换成词汇表里的索引。_check_exists也不需要,删去,len里面train的值改成我们的样本数180,
测试集没有,就是0喽。这样就剩getitem了,顾名思义,就是获取item的值,官方在这个函数下标注
tuple: (image, target) where target is index of the target class,也就是获取index索引的数据,这也很简单。整理一下,改成如下:

 class emojiDataset(Data.Dataset):
    def __init__(self, root, train=True, transform=None, target_transform=None, download=False):
        self.root = root
        self.transform = transform
        self.target_transform = target_transform
        self.train = train
        if download:
            pass
        if self.train:
            traindata,trainlabels = read_csv(os.path.join(self.root,'mytrain.csv'))
            self.train_data = sentences_to_indices(traindata, word_to_index, 10)
            self.train_labels = trainlabels
            # self.train_labels = convert_to_one_hot(trainlabels, C=5)
        else:
            pass
    def __getitem__(self, index):
        if self.train:
            data, target = self.train_data[index], self.train_labels[index]
        else:
            pass
        if self.transform is not None:
            pass
        if self.target_transform is not None:
            pass
        return data, target
    def __len__(self):
        if self.train:
            return 180
        else:
            return 0

可以看到,其实没怎么修改,然后iter一下,print(next(iter))测试,发现没有任何问题,就是这么简单。
注意到这个问题比较简单,所以很多函数都是pass,你当然可以自由编写,适应你的项目要求。

实例化一下,用dataloader试一下,看看是不是也可以,结果自然是可以的。

结论

这样数据集的准备就ok了,剩下就是定义模型和训练了。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,529评论 5 475
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,015评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,409评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,385评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,387评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,466评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,880评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,528评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,727评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,528评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,602评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,302评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,873评论 3 306
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,890评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,132评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,777评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,310评论 2 342

推荐阅读更多精彩内容

  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 171,357评论 25 707
  • 当你挺着啤酒肚胡吃海塞,整晚坐在大排档里吆五喝六、神吹胡哨的时候,当你对坚持健身运动的人不屑一顾、嗤之以鼻的时候,...
    Ninfa女巫阅读 714评论 0 6
  • 依诺言: 沈园伤, 不思量, 自难忘。 春依旧, 人空守。 陆游再回沈园,初恋情人不在了,有多伤,是无法计量的...
    依诺king阅读 197评论 0 1
  • 小时候的冬天,我们姐弟三人都是穿妈妈做的花棉鞋,既保暖又轻快,但小孩子都奢望那橱窗里摆着的高腰红色棉靴。 终...
    秋水伊人8244阅读 126评论 0 0
  • 2013年9月13日,王菲发布一条“这一世 夫妻缘尽至此 我还好 你也保重”的微博。随后不到一个小时,李亚鹏也发了...
    写译人生阅读 2,064评论 0 0