当前位置: 首页 > news >正文

个人网站创意大型的营销型网站建设

个人网站创意,大型的营销型网站建设,百度产品推广,WordPress高端主题 熊一、说明 TensorFlow 2发布已经接近2年时间#xff0c;不仅继承了Keras快速上手和易于使用的特性#xff0c;同时还扩展了原有Keras所不支持的分布式训练的特性。3大设计原则#xff1a;简化概念#xff0c;海纳百川#xff0c;构建生态.这是本系列的第三部分#xff0c;… 一、说明 TensorFlow 2发布已经接近2年时间不仅继承了Keras快速上手和易于使用的特性同时还扩展了原有Keras所不支持的分布式训练的特性。3大设计原则简化概念海纳百川构建生态.这是本系列的第三部分我们将创建激活层并在 TensorFlow 2 中训练它们。         之前我们已经了解了如何创建自定义损失函数 -使用 TensorFlow 2 创建自定义损失函数 自定义ReLU函数来源作者创建的图片 二、介绍 在本文中我们将了解如何创建自定义激活函数。虽然 TensorFlow 已经包含一堆内置激活函数但有多种方法可以创建您自己的自定义激活函数或编辑现有激活函数。 ReLU修正线性单元仍然是任何神经网络架构的隐藏层中最常用的激活函数。ReLU 也可以表示为函数 f(x)其中 f(x) 0, 当 x 0 时, 并且当 x ≥ 0 时f(x) x。 因此该函数仅考虑正部分并写为 f(x) 最大值(0,x) 或在代码表示中 if input 0:return input else:return 0 但这个ReLU函数是预定义的。如果我们想自定义此函数或创建我们自己的 ReLU 激活该怎么办在 TensorFlow 中有一种非常简单的方法可以做到这一点——我们只需使用Lambda 层。 ReLU 和 GeLU 激活函数 如何使用 lambda 层 tf.keras.layers.Lambda(lambda x: tf.abs(x)) Lambda 只是可以在 TensorFlow 中直接调用的另一层。在 lambda 层中首先指定参数。在上面的代码片段中该值为“x”lambda x。在本例中我们想要求 x 的绝对值因此我们使用 tf.abs(x)。因此如果 x 的值为 -1则该 lambda 层会将 x 的值更改为 1。 如何使用 lambda 层创建自定义 ReLU def custom_relu(x):return K.maximum(0.0,x) model tf.keras.models.Sequential([tf.keras.layers.Flatten(input_shape(128,128)),tf.keras.layers.Dense(512),tf.keras.layers.Lambda(custom_relu),tf.keras.layers.Dense(5, activation softmax) ]) 上面的代码片段展示了如何在 TensorFlow 模型中实现自定义 ReLU。我们创建一个函数 custom_relu 并返回 0 或 x 的最大值与 ReLU 函数相同。 在下面的顺序模型中在 Dense 层之后我们创建一个 Lambda 层并将其传递到自定义激活函数中。但这段代码仍然没有做任何与 ReLU 激活函数不同的事情。 当我们开始研究自定义函数的返回值时乐趣就开始了。假设我们取 0.5 和 x 中的最大值而不是 0 和 x。我们已经有了自己定制的 ReLU。然后可以根据需要更改这些值。 def custom_relu(x): 返回 K.maximum(0.5,x) def custom_relu(x):return K.maximum(0.5,x) model tf.keras.models.Sequential([tf.keras.layers.Flatten(input_shape(128,128)),tf.keras.layers.Dense(512),tf.keras.layers.Lambda(custom_relu),tf.keras.layers.Dense(5, activation softmax) ]) 在 mnist 数据集上使用 lambda 激活的示例 #using absolute value (Lambda layer example 1) import tensorflow as tf from tensorflow.keras import backend as K mnist tf.keras.datasets.mnist (x_train, y_train),(x_test, y_test) mnist.load_data() x_train, x_test x_train / 255.0, x_test / 255.0 model tf.keras.models.Sequential([tf.keras.layers.Flatten(input_shape(28, 28)),tf.keras.layers.Dense(128),tf.keras.layers.Lambda(lambda x: tf.abs(x)), tf.keras.layers.Dense(10, activationsoftmax) ]) model.compile(optimizeradam,losssparse_categorical_crossentropy,metrics[accuracy]) model.fit(x_train, y_train, epochs5) model.evaluate(x_test, y_test) 将 ReLU 激活替换为 mnist 数据集上的绝对值测试精度为 97.384%。 #using custom ReLU activation (Lambda layer example 2) import tensorflow as tf from tensorflow.keras import backend as K mnist tf.keras.datasets.mnist (x_train, y_train),(x_test, y_test) mnist.load_data() x_train, x_test x_train / 255.0, x_test / 255.0 def my_relu(x):return K.maximum(-0.1, x) model tf.keras.models.Sequential([tf.keras.layers.Flatten(input_shape(28, 28)),tf.keras.layers.Dense(128),tf.keras.layers.Lambda(my_relu), tf.keras.layers.Dense(10, activationsoftmax) ]) model.compile(optimizeradam,losssparse_categorical_crossentropy,metrics[accuracy]) model.fit(x_train, y_train, epochs5) model.evaluate(x_test, y_test) 将 ReLU 激活替换为自定义 ReLU 激活在 mnist 数据集上取最大值 -0.1 或 x测试精度为 97.778%。 三、结论 尽管 lambda 层使用起来非常简单但它们有很多限制。在下一篇文章中我将介绍如何在 TensorFlow 中创建可训练的完全自定义层。
http://www.hkea.cn/news/14456879/

相关文章:

  • 个人网站可以做淘宝客吗深圳网站设计服务公
  • 做网站服务器配置怎么选什么专业会制作网站
  • 贵阳网站建设推广公司vultr建站wordpress
  • 网站建设运营成本如何制作网页线上答题并生成证书
  • 《网站开发实例》pdf下载南昌建设医院网站
  • 合川网站建设公司做产品类网站有哪些内容
  • 企业网站的优化摄影婚纱网站建设
  • 又拍网站怎么做网站正在建设中 图片
  • 网站设计基础知识WordPress内容整合
  • 网站flash模板网站建设怎么设计更加吸引人
  • 大型移动网站开发怎样做京东网站
  • 网站站点结构的构建重庆网络营销渠道
  • 西安优秀的集团门户网站建设公司c语言必背100代码
  • 网站建设公司骗人做普通网站选择什么服务器
  • 做微博长图的网站天津城市建设大学网站
  • 东莞企业网站设计排名温州市城市建设学校网站
  • 在线做漫画网站南昌做企业网站
  • 旅游门户网站源码怎么做的如何优化关键词
  • 义乌建设网站制作成都市分类信息网站开发
  • 建设网站建设白度经验wordpress美化登录
  • 建网站app需要多少钱科讯cms 网站地图
  • 网站建设的售后服务流程著名的设计作品有哪些
  • 大连网站建设-中国互联北京app制作公司
  • 做微网站公司名称手机网页制作图片
  • 外贸平台有哪些小网站找大连做企业网站的公司
  • 网站提交地址资阳公司短视频优化服务
  • 怎样找到免费的黄页网站中山网站建设平台
  • 海安市建设局网站短链接在线生成器
  • discuz 旅游网站模版只做网站应该找谁
  • 盐城市住房城乡建设网站开鲁seo网站