如何用python生成器读取图片
本篇内容主要讲解“如何用python生成器读取图片”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“如何用python生成器读取图片”吧!
在深度学习中训练模型的过程中读取图片数据,如果将图片数据全部读入内存是不现实的,所以有必要使用生成器来读取数据。
通过列表生成式,我们可以直接创建一个列表。但是,受到内存限制,列表容量肯定是有限的。而且,创建一个包含100万个元素的列表,不仅占用很大的存储空间,如果我们仅仅需要访问前面几个元素,那后面绝大多数元素占用的空间都白白浪费了。
所以,如果列表元素可以按照某种算法推算出来,那我们是否可以在循环的过程中不断推算出后续的元素呢?这样就不必创建完整的list,从而节省大量的空间。在Python中,这种一边循环一边计算的机制,称为生成器:generator。
创建generator有多种方法,第一种方法很简单只要把一个列表生成式的[]改成(),就创建了一个generator:
>>>L=[x*xforxinrange(10)]>>>L[0,1,4,9,16,25,36,49,64,81]>>>g=(x*xforxinrange(10))>>>g<generatorobject<genexpr>at0x1022ef630>
list中的元素可以直接打印出来 ,generator要一个一个打印出来,
可以通过next()函数获得generator的下一个返回值:>>> next(g)
0
>>> next(g)
1
>>> next(g)
4
>>> next(g)
9
>>> next(g)
16
generator保存的是算法,每次调用next(g),就计算出g的下一个元素的值,直到计算到最后一个元素,没有更多的元素时,抛出StopIteration的错误。
上面这种不断调用next(g)实在是太变态了正确的方法是使用for循环,因为generator也是可迭代对象:
>>>g=(x*xforxinrange(10))>>>forning:...print(n)
著名的斐波拉契数列(Fibonacci),除第一个和第二个数外,任意一个数都可由前两个数相加得到:
斐波拉契数列用列表生成式写不出来1, 1, 2, 3, 5, 8, 13, 21, 34, ...
但是,用函数把它打印出来却很容易:
deffib(max):n,a,b=0,0,1whilen<max:print(b)a,b=b,a+bn=n+1return'done'
仔细观察,可以看出,fib函数实际上是定义了斐波拉契数列的推算规则,可以从第一个元素开始,推算出后续任意的元素,这种逻辑其实非常类似generator。
也就是说,上面的函数和generator仅一步之遥。要把fib函数变成generator,只需要把print(b)改为yield b就可以了:
deffib(max):n,a,b=0,0,1whilen<max:yieldba,b=b,a+bn=n+1return'done'
这就是定义generator的另一种方法。如果一个函数定义中包含yield关键字,那么这个函数就不再是一个普通函数,而是一个generator:
>>>f=fib(6)>>>f<generatorobjectfibat0x104feaaa0>
这里,最难理解的就是generator和函数的执行流程不一样。函数是顺序执行,遇到return语句或者最后一行函数语句就返回。而变成generator的函数,在每次调用next()的时候执行,遇到yield语句返回,再次执行时从上次返回的yield语句处继续执行。
在循环过程中不断调用yield,就会不断中断。当然要给循环设置一个条件来退出循环,不然就会产生一个无限数列出来。
同样的,把函数改成generator后,我们基本上从来不会用next()来获取下一个返回值,而是直接使用for循环来迭代:
>>>forninfib(6):...print(n)...最后在读取图片的实际应用中的代码如下:
deftrain_data(train_file,batch_size,resize_shape):datas,labels=read_data(train_file)num_batch=len(datas)//batch_sizeforiinrange(num_batch):imgs=[]train_datas=datas[batch_size*i:batch_size*(i+1)]train_lables=labels[batch_size*i:batch_size*(i+1)]forimg_pathintrain_datas:img=cv2.imread(img_path)img=cv2.resize(img,resize_shape)img=img/255#归一化处理imgs.append(img)yieldnp.array(imgs),np.array(train_lables)
补充:深度学习算法--fit_generator()函数使用
如果我们数据量很大,那么是不可能将所有数据载入内存的,必将导致内存泄漏,
这时候我们可以用fit_generator函数来进行训练fromkeras.datasetsimportimdbfromkeras.preprocessing.sequenceimportpad_sequencesfromkeras.modelsimportSequentialfromkerasimportlayersimportnumpyasnpimportrandomfromsklearn.metricsimportf1_score,accuracy_scoremax_features=100maxlen=50batch_size=320(x_train,y_train),(x_test,y_test)=imdb.load_data(num_words=max_features)x_train=pad_sequences(x_train,maxlen=maxlen)x_test=pad_sequences(x_test,maxlen=maxlen)defgenerator():while1:row=np.random.randint(0,len(x_train),size=batch_size)x=np.zeros((batch_size,x_train.shape[-1]))y=np.zeros((batch_size,))x=x_train[row]y=y_train[row]yieldx,y#generator()model=Sequential()model.add(layers.Embedding(max_features,32,input_length=maxlen))model.add(layers.GRU(64,return_sequences=True))model.add(layers.GRU(32))#model.add(layers.Flatten())#model.add(layers.Dense(32,activation='relu'))model.add(layers.Dense(1,activation='sigmoid'))model.compile(optimizer='rmsprop',loss='binary_crossentropy',metrics=['acc'])print(model.summary())#history=model.fit(x_train,y_train,epochs=1,batch_size=32,validation_split=0.2)#Keras中的fit()函数传入的x_train和y_train是被完整的加载进内存的,当然用起来很方便,但是如果我们数据量很大,#那么是不可能将所有数据载入内存的,必将导致内存泄漏,这时候我们可以用fit_generator函数来进行训练。#fit_generator函数必须传入一个生成器,我们的训练数据也是通过生成器产生的history=model.fit_generator(generator(),epochs=1,steps_per_epoch=len(x_train)//(batch_size))print(model.evaluate(x_test,y_test))y=model.predict_classes(x_test)print(accuracy_score(y_test,y))
到此,相信大家对“如何用python生成器读取图片”有了更深的了解,不妨来实际操作一番吧!这里是亿速云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。