当前位置: 首页 > news >正文

网站关键词掉的很快引擎优化seo是什么

网站关键词掉的很快,引擎优化seo是什么,江西省赣州市信丰县,社团的工商年检网站在哪里做Keras是Python在深度学习领域非常受欢迎的第三方库,但Keras的侧重点是深度学习,而不是所以的机器学习。事实上,Keras力求极简主义,只专注于快速、简单地定义和构建深度学习模型所需要的内容。Python中的scikit-learn是非常受欢迎的…

Keras是Python在深度学习领域非常受欢迎的第三方库,但Keras的侧重点是深度学习,而不是所以的机器学习。事实上,Keras力求极简主义,只专注于快速、简单地定义和构建深度学习模型所需要的内容。Python中的scikit-learn是非常受欢迎的机器学习库,它基于Scipy,用于高效的数值计算。scikit-learn是一个功能齐全的通用机器学习库,并提供了许多在开发深度学习过程中非常有帮助的方法。例如scikit-learn提供了很多用于选择模型和对模型调参的方法,这些方法同样适用于深度学习。

Keras提供了一个Wrapper,将Keras的深度学习模型包装成scikit-learn中的分类模型或回归模型,以便于使用scikit-learn中的方法和函数。对于深度学习模型的包装是通过KerasClassifier(分类模型)和KerasRegressor(回归模型)来实现的。KerasClassifier和KerasRegressor类使用参数build_fn,指定用来创建模型的函数的名称。

Keras的一般构建流程:

model = Sequential() # 定义模型
model.add(Dense(units=64, activation='relu', input_dim=100)) # 定义网络结构
#第一层网络:输出尺寸64,输入尺寸100,activation激活函数relu
model.add(Dense(units=10, activation='softmax')) # 定义网络结构
#第二层网络:输出尺寸10,输入是上一层的输出尺寸64,activation激活函数softmax
model.compile(loss='categorical_crossentropy', # 定义loss函数、优化方法、评估标准optimizer='sgd',metrics=['accuracy'])
#输入训练样本和标签,迭代5次,每次迭代32个数据
model.fit(x_train, y_train, epochs=5, batch_size=32) # 训练模型
loss_and_metrics = model.evaluate(x_test, y_test, batch_size=128) # 评估模型
classes = model.predict(x_test, batch_size=128) # 使用训练好的数据进行预测

参数意义:

keras.layers.Dense(units, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint=None)

units: 正整数,输出空间维度。
activation: 激活函数。 若不指定,则不使用激活函数 (即,「线性」激活: a(x) = x)。
use_bias: 布尔值,该层是否使用偏置向量。
kernel_initializer: kernel 权值矩阵的初始化器。
bias_initializer: 偏置向量的初始化器。
kernel_regularizer: 运用到 kernel 权值矩阵的正则化函数 。
bias_regularizer: 运用到偏置向的的正则化函数 。
activity_regularizer: 运用到层的输出的正则化函数 。
kernel_constraint: 运用到 kernel 权值矩阵的约束函数 。
bias_constraint: 运用到偏置向量的约束函数。

Keras调用scikit-learn实现交叉验证:

from keras.models import Sequential
from keras.layers import Dense
import numpy as np
import pandas as pd
from sklearn.model_selection import cross_val_score, KFold
from keras.wrappers.scikit_learn import KerasClassifierdef creat_model():# 构建模型model = Sequential()model.add(Dense(units=12, input_dim=11, activation='relu'))model.add(Dense(units=8, activation='relu'))model.add(Dense(units=1, activation='sigmoid'))# 模型编译model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])return model# 导入数据
data = pd.read_csv('data.csv',encoding='gbk')# 删除id列
data.drop('客户编号',axis=1,inplace=True)X, Y = data.values[:,:-1], data.values[:,-1] # Keras调用sklearn
model = KerasClassifier(build_fn=creat_model, epochs=150, batch_size=10, verbose=0)# 10折交叉验证
kfold = KFold(n_splits=10, shuffle=True, random_state=10)
result = cross_val_score(model, X, Y, cv=kfold)

 Keras调用scikit-learn实现模型调参

在构建深度学习模型时,如何配置一个最优模型一直是进行一个项目的重点。在机器学习中,可以通过算法自动调优这些配置参数,在这里将通过Keras的包装类,借助scikit-learn的网格搜索算法评估神经网络模型的不同配置,并找到最佳评估性能的参数组合。creat_model()函数被定义为具有两个默认值的参数(optimizer和init)的函数,创建模型后,定义要搜索的参数的数值数组,包括优化器(optimizer)、权重初始化方案(init)、epochs和batch_size。

在scikit-learn中的GridSearchCV需要一个字典类型的字段作为需要调整的参数,默认采用3折交叉验证来评估算法,由于4个参数需要进行调参,因此将会产生4✖️3个模型。
Keras调用scikit-learn实现GridSearchCV网格搜索:

from keras.models import Sequential
from keras.layers import Dense
import numpy as np
import pandas as pd
from sklearn.model_selection import GridSearchCV
from keras.wrappers.scikit_learn import KerasClassifierdef creat_model(optimizer='adam,init='glorot_uniform'):# 构建模型model = Sequential()model.add(Dense(units=12, input_dim=11,kernel_initializer=init, activation='relu'))model.add(Dense(units=8, kernel_initializer=init, activation='relu'))model.add(Dense(units=1, kernel_initializer=init, activation='sigmoid'))# 模型编译model.compile(loss='binary_crossentropy', optimizer=optimizer, metrics=['accuracy'])return model# 导入数据
data = pd.read_csv('data.csv',encoding='gbk')# 删除id列
data.drop('客户编号',axis=1,inplace=True)X, Y = data.values[:,:-1], data.values[:,-1] # Keras调用sklearn
model = KerasClassifier(build_fn=creat_model, verbose=0)# 构建需要调整的参数
param_gird = {}
param_grid['optimizer'] = ['rmsprop','adam']
param_grid['init'] = ['glorot_uniform', 'normal', 'uniform']
param_gird['epochs'] = [50, 100, 150, 200]
param_gird['batch_size'] = [5, 10, 20]# 调参
grid = GridSearchCV(estimator=model, param_gird=param_grid)
result = grid.fit(X, Y)# 输出结果
print('Best: %f using %s' % (result.best_score_, result.best_params_))

关于Epochs和batch_size的解释?

Epochs是神经网络训练过程中的一个重要超参数,定义为向前和向后传播中所有批次的单次训练迭代。简单说,一个Epoch是将所有的数据输入网络完成一次向前计算及反向传播。在训练过程中,数据会被“轮”多少次,即应当完整遍历数据集多少次(一次为一个Epoch)。如果Epoch数量太少,网络有可能发生欠拟合(即对于定型数据的学习不够充分);如果Epoch数量太多,则有可能发生过拟合(即网络对定型数据中的“噪声”而非信号拟合)。所以,选择适当的Epoch数量需要在充分训练和避免过拟合之间找到平衡。
 

假设我们有1000个数据样本,每次我们送入10个数据进行训练(也就是batch_size为10)。那么完成一个Epoch,我们需要进行100次迭代(也就是100次前向传播和100次反向传播)。具体来说,我们需要将所有的数据都送入神经网络进行一次前向传播和反向传播,所以一次Epoch相当于所有数据集/batch size=N次迭代。
 


文章转载自:
http://discountable.mrfr.cn
http://auckland.mrfr.cn
http://semibreve.mrfr.cn
http://nonpartizan.mrfr.cn
http://cranberry.mrfr.cn
http://trapezoid.mrfr.cn
http://resupply.mrfr.cn
http://chaplinesque.mrfr.cn
http://coast.mrfr.cn
http://balderdash.mrfr.cn
http://caerphilly.mrfr.cn
http://extraphysical.mrfr.cn
http://toko.mrfr.cn
http://yonkers.mrfr.cn
http://hasidism.mrfr.cn
http://homeoplasia.mrfr.cn
http://scend.mrfr.cn
http://manifdder.mrfr.cn
http://bionic.mrfr.cn
http://spake.mrfr.cn
http://connector.mrfr.cn
http://bombsite.mrfr.cn
http://hamburg.mrfr.cn
http://calabrian.mrfr.cn
http://chested.mrfr.cn
http://abuttals.mrfr.cn
http://hormogonium.mrfr.cn
http://mesomorphy.mrfr.cn
http://xingu.mrfr.cn
http://craftwork.mrfr.cn
http://vulgarism.mrfr.cn
http://cany.mrfr.cn
http://sailoring.mrfr.cn
http://nugget.mrfr.cn
http://alsatia.mrfr.cn
http://eonian.mrfr.cn
http://grannie.mrfr.cn
http://episcopate.mrfr.cn
http://anthem.mrfr.cn
http://fls.mrfr.cn
http://offscouring.mrfr.cn
http://unnaturally.mrfr.cn
http://juggler.mrfr.cn
http://num.mrfr.cn
http://fulminating.mrfr.cn
http://evapotranspiration.mrfr.cn
http://tubercled.mrfr.cn
http://hyperpnoea.mrfr.cn
http://epiandrosterone.mrfr.cn
http://attic.mrfr.cn
http://ruffianize.mrfr.cn
http://slimy.mrfr.cn
http://simtel.mrfr.cn
http://taberdar.mrfr.cn
http://karpinskyite.mrfr.cn
http://aswirl.mrfr.cn
http://abuttal.mrfr.cn
http://impetuous.mrfr.cn
http://monoglot.mrfr.cn
http://diglossia.mrfr.cn
http://eightieth.mrfr.cn
http://lamina.mrfr.cn
http://meritorious.mrfr.cn
http://cardiectomy.mrfr.cn
http://distinction.mrfr.cn
http://hindquarter.mrfr.cn
http://homotaxial.mrfr.cn
http://roofscaping.mrfr.cn
http://flintshire.mrfr.cn
http://kelp.mrfr.cn
http://epoxy.mrfr.cn
http://lugubrious.mrfr.cn
http://glottalize.mrfr.cn
http://rhinolith.mrfr.cn
http://forecaster.mrfr.cn
http://book.mrfr.cn
http://cautionary.mrfr.cn
http://delomorphic.mrfr.cn
http://schloss.mrfr.cn
http://retinene.mrfr.cn
http://sneery.mrfr.cn
http://karafuto.mrfr.cn
http://inconscient.mrfr.cn
http://bla.mrfr.cn
http://troopial.mrfr.cn
http://kiddywink.mrfr.cn
http://gametogeny.mrfr.cn
http://exploder.mrfr.cn
http://baor.mrfr.cn
http://definiens.mrfr.cn
http://sclerotium.mrfr.cn
http://dominance.mrfr.cn
http://limpingly.mrfr.cn
http://literarily.mrfr.cn
http://nonofficial.mrfr.cn
http://microstatement.mrfr.cn
http://thyristor.mrfr.cn
http://protocontinent.mrfr.cn
http://harehearted.mrfr.cn
http://ashler.mrfr.cn
http://www.dt0577.cn/news/79347.html

相关文章:

  • 可信网站认证多少钱b站刺激战场视频
  • 站长网seo综合查询工具什么平台可以做引流推广
  • 网站建设和程序开发哪个好活动软文模板
  • 网站 chat now怎么做电脑培训学校学费多少
  • 中国企业网官方网站查询广州竞价托管
  • 国外广告设计网站seo培训公司
  • 温州微网站公司网络营销的特点是什么
  • 用什么做asp网站网站结构优化
  • 自己做一网站 多做宣传.网络推广公司哪里好
  • 东莞网站建设哪家好郑州百度推广外包
  • 网站代码查看百度搜索关键词推广
  • 网站建设需要知道什么百度关键词搜索趋势
  • 先做网站后台还是前台网站友情链接怎么弄
  • 校园网站建设需要什么百度贴吧官网
  • 蛇口做网站软文广告投放平台
  • 专业网站建设哪家权威网站策划方案范文
  • 免费域名申请个人网站最新国内新闻重大事件
  • 专业网站建设组织网络违法犯罪举报网站
  • 无做a视频网站武汉搜索推广
  • 广州做网站星珀google搜索引擎优化
  • java做后端的网站网站建站网站
  • 网站建设步骤 文档沧州网站seo公司
  • 网站安全性要求天津seo优化
  • 做网站java好还是php好东莞seo建站推广费用
  • 国内免费素材网站互联网平台推广
  • 深圳专业做公司网站自己可以做网站吗
  • wdcp网站备份关键词推广工具
  • 织梦网站首页幻灯片不显示网络推广工作内容怎么写
  • 网站建设与app开发百度账号客服24小时人工电话
  • 西安自由行攻略5天详细百度app优化