打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
基于matplotlib和keras的神经网络结果可视化

前言

在使用神经网络进行模型训练的时候,我们可以通过误差损失函数、精度等一系列指标来判断最终神经网络的拟合效果,一般的问题中,无论是回归还是拟合,本质上都是“一个拟合过程”,我们一定特别希望知道,网络每训练一次,这个你和到底到达了一个什么程度,距离我的真实数据差别还有多少,本文通过一个简单的例子来实现这样的功能,动态展示网络拟合的程度。

目录

一、最终效果图展示

二、实验案例

    2.1 开发环境以及要求

    2.2 训练数据的产生

    2.3 网络的结构

三、网络的搭建与模型训练

    3.1 网络的定义以及实现

    3.2 训练模型保存

    3.3 模型的搭建和保存代码

四、完整代码以及最终效果展示

一、最终效果图展示

二、实验案例

2.1 开发环境以及要求

    本文神经网络的搭建使用的是keras开发框架,绘制动态图使用的是matplotlib绘图库。

2.2 训练数据的产生

由于本文所搭建的网络很小,只是为了展示如何动态展示训练过程,所以以一个标准正弦函数作为拟合基础,在一个正弦波函数上选择了20组数据作为训练,本文只展示,所以什么验证、测试等工作均没有进行。

----------------------------------------------

已知下面采样自Sin函数的数据:

  x            y

1 0.093 -0.81

2 0.58         -0.45

3 1.04         -0.007

4 1.55         0.48

5 2.15         0.89

6 2.62         0.997

7 2.71         0.995

8 2.73         0.993

9 3.03         0.916

10 3.14         0.86

11 3.58         0.57

12 3.66         0.504

13 3.81         0.369

14 3.83         0.35

15 4.39         -0.199

16 4.44         -0.248

17 4.6         -0.399

18 5.39         -0.932

19 5.54         -0.975

20 5.76         -0.999

---------------------------------------------- 

2.3 网络的结构

     从上面的样本数据可以得知,本文的网络中,输入的特征就是一个x,输出值是一个y,所以本次网络的输入节点为1、输出节点也是1、中间的隐藏层神经元为10,当然这个隐藏层神经元这里是可以随便设置的,最终的网络结构如下:

本文最终要做的事就是,通过一个简单的三层神经网络训练一个Sin函数的拟合器,并可视化模型训练过程的拟合曲线。

三、网络的搭建与模型训练

3.1 网络的定义以及实现

import math;
import random;
from matplotlib import pyplot as plt
from keras.models import Sequential
from keras.layers.core import Dense
from keras.optimizers import Adam
import numpy as np
from keras.callbacks import ModelCheckpoint
import os


#采样函数
def sample(low, up, num):
    data = [];
    for i in range(num):
        #采样
        tmp = random.uniform(low, up);
        data.append(tmp);
    data.sort();
    return data;

#sin函数
def func(x):
    y = [];
    for i in range(len(x)):
        tmp = math.sin(x[i] - math.pi/3);
        y.append(tmp);
    return y;

#获取模型拟合结果
def getfit(model,x):    
    y = [];

    for i in range(len(x)):
        tmp = model.predict([x[i]], 10);
        y.append(tmp[0][0]);
    return y;

#删除同一目录下的所有文件
def del_file(path):
    ls = os.listdir(path)
    for i in ls:
        c_path = os.path.join(path, i)
        if os.path.isdir(c_path):
            del_file(c_path)
        else:
            os.remove(c_path)

if __name__ == '__main__':    
    path = 'E:/Model/';
    del_file(path);

    low = 0;
    up = 2 * math.pi;
    x = np.linspace(low, up, 1000);
    y = func(x);

    # 数据采样
#     x_sample = sample(low,up,20);
    x_sample = [0.093264420229996940.58125905205083111.0404901437835861.55044277460473382.15895571838170362.62353577870184072.7125780910933612.73791093365281673.03396626518411863.1476768120832483.585963371718373.66214967311243143.811308998642033.8330928599288724.3966113408029014.44810803392568754.6096578790571515.3997310634125835.542997207867945.764084730699906];
    y_sample = func(x_sample);

    # callback
    filepath='E:/Model/weights-improvement-{epoch:00d}.hdf5';
    checkpoint= ModelCheckpoint(filepath, verbose=1, save_best_only=False, mode='max');
    callbacks_list= [checkpoint];

    # 建立顺序神经网络层次模型
    model = Sequential();  
    model.add(Dense(10, input_dim=1, init='uniform', activation='relu'));
    model.add(Dense(1, init='uniform', activation='tanh'));
    adam = Adam(lr = 0.05);
    model.compile(loss='mean_squared_error', optimizer=adam, metrics=['accuracy']);
    model.fit(x_sample, y_sample, nb_epoch=1000, batch_size=20,callbacks=callbacks_list);

    #测试数据
    x_new = np.linspace(low, up, 1000);
    y_new = getfit(model,x_new);

    # 数据可视化
    plt.plot(x,y); 
    plt.scatter(x_sample, y_sample);
    plt.plot(x_new,y_new);

    plt.show();

3.2 训练模型保存

      在神经网络训练的过程中,有一个非常重要的操作,就是将训练过程中模型的参数保存到本地,这是后面拟合过程可视化的基础。训练过程中保存的模型文件,如下图所示。

模型保存的关键在于fit函数中callback函数的设置,注意到,下面的代码,每次迭代,算法都会执行callbacks函数指定的函数列表中的方法。这里,我们的回调函数设置为ModelCheckpoint,其参数如下表所示:

参数的含义

(1)filename: 字符串,保存模型的路径

(2)verbose: 0或1

(3)mode: ‘auto’,‘min’,‘max’

(4)monitor: 需要监视的值

(5)save_best_only: 当设置为True时,监测值有改进时才会保存当前的模型。在save_best_only=True时决定性能最佳模型的评判准则,例如,当监测值为val_acc时,模式应为max,当监测值为val_loss时,模式应为min。在auto模式下,评价准则由被监测值的名字自动推断

(6)save_weights_only: 若设置为True,则只保存模型权重,否则将保存整个模型(包括模型结构,配置信息等)

(7)period CheckPoint之间的间隔的epoch数

3.3 模型的搭建和保存代码

    # callback
    filepath='E:/Model/weights-improvement-{epoch:00d}.hdf5';
    checkpoint= ModelCheckpoint(filepath, verbose=1, save_best_only=False, mode='max');
    callbacks_list= [checkpoint];

    # 建立顺序神经网络层次模型
    model = Sequential();  
    model.add(Dense(10, input_dim=1, init='uniform', activation='relu'));
    model.add(Dense(1, init='uniform', activation='tanh'));
    adam = Adam(lr = 0.05);
    model.compile(loss='mean_squared_error', optimizer=adam, metrics=['accuracy']);
    model.fit(x_sample, y_sample, nb_epoch=1000, batch_size=20,callbacks=callbacks_list);

四、完整代码以及最终效果展示

import math;
import random;
from matplotlib import pyplot as plt
from keras.models import Sequential
from keras.layers.core import Dense
import numpy as np
import matplotlib.animation as animation
from PIL import Image

#定义kdd99数据预处理函数
def sample(low, up, num):
    data = [];
    for i in range(num):
        #采样
        tmp = random.uniform(low, up);
        data.append(tmp);
    data.sort();
    return data;

def func(x):
    y = [];
    for i in range(len(x)):
        tmp = math.sin(x[i] - math.pi/3);
        y.append(tmp);
    return y;

def getfit(model,x):    
    y = [];

    for i in range(len(x)):
        tmp = model.predict([x[i]], 10);
        y.append(tmp[0][0]);
    return y;

def init():
    fpath = 'E:/imgs/0.jpg';
    img = Image.open(fpath);
    plt.axis('off'# 关掉坐标轴为 off
    return plt.imshow(img);

def update(i): 
    fpath = 'E:/imgs/' + str(i) + '.jpg';

    img = Image.open(fpath);
    plt.axis('off'# 关掉坐标轴为 off
    return plt.imshow(img);

if __name__ == '__main__':    
    low = 0;
    up = 2 * math.pi;
    x = np.linspace(low, up, 1000);
    y = func(x);

    # 数据采样
#     x_sample = sample(low,up,20);
    x_sample = [0.093264420229996940.58125905205083111.0404901437835861.55044277460473382.15895571838170362.62353577870184072.7125780910933612.73791093365281673.03396626518411863.1476768120832483.585963371718373.66214967311243143.811308998642033.8330928599288724.3966113408029014.44810803392568754.6096578790571515.3997310634125835.542997207867945.764084730699906];
    y_sample = func(x_sample);

    # 建立顺序神经网络层次模型
    model = Sequential();  
    model.add(Dense(10, input_dim=1, init='uniform', activation='relu'));
    model.add(Dense(1, init='uniform', activation='tanh'));

    plt.ion(); #开启interactive mode 成功的关键函数
    fig = plt.figure(1);

    for i in range(100):
        filepath='E:/Model/weights-improvement-' + str(i + 1) + '.hdf5';
        model.load_weights(filepath);
        #测试数据
        x_new = np.linspace(low, up, 1000);
        y_new = getfit(model,x_new);
        # 显示数据
        plt.clf();
        plt.plot(x,y); 
        plt.scatter(x_sample, y_sample);
        plt.plot(x_new,y_new);

        ffpath = 'E:/imgs/' + str(i) + '.jpg';
        plt.savefig(ffpath);

        plt.pause(0.01)             # 暂停0.01秒

    ani = animation.FuncAnimation(plt.figure(2), update,range(100),init_func=init, interval=500);
    ani.save('E:/test.gif',writer='pillow');

    plt.ioff()                 # 关闭交互模式

最终的结果展示为如下:

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
NumPy、pandas、Matplotlib…8个Python库从安装到应用(附代码)
Python数据分析、挖掘常用工具
【原创】机器学习从零开始系列连载(7)——人工神经网络-Neural Network
Keras如何保存训练模型
回调函数Callback
DL框架之Keras:深度学习框架Keras框架的简介、安装(Python库)、相关概念、Keras模型使用、使用方法之详细攻略
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服