1. 程式人生 > >TensorFlow(七)tf.nn庫

TensorFlow(七)tf.nn庫

tf.nn,tf.layers, tf.contrib模組有很多功能是重複的

下面是對三個模組的簡述:

  • tf.nn :提供神經網路相關操作的支援,包括卷積操作(conv)、池化操作(pooling)、歸一化、loss、分類操作、embedding、RNN、Evaluation。
  • tf.layers:主要提供的高層的神經網路,主要和卷積相關的,tf.nn會更底層一些。
  • tf.contrib:tf.contrib.layers提供夠將計算圖中的 網路層、正則化、摘要操作、是構建計算圖的高階操作,但是tf.contrib包含不穩定和實驗程式碼,有可能以後API會改變。

TensorFlow中文社群提供了詳細的介紹:

TensorFlow中文社群

  • Activation Functions
    • tf.nn.relu(features, name=None)
    • tf.nn.relu6(features, name=None)
    • tf.nn.softplus(features, name=None)
    • tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None, name=None)
    • tf.nn.bias_add(value, bias, name=None)
    • tf.sigmoid(x, name=None)
    • tf.tanh(x, name=None)
  • Convolution
    • tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)
    • tf.nn.depthwise_conv2d(input, filter, strides, padding, name=None)
    • tf.nn.separable_conv2d(input, depthwise_filter, pointwise_filter, strides, padding, name=None)
  • Pooling
    • tf.nn.avg_pool(value, ksize, strides, padding, name=None)
    • tf.nn.max_pool(value, ksize, strides, padding, name=None)
    • tf.nn.max_pool_with_argmax(input, ksize, strides, padding, Targmax=None, name=None)
  • Normalization
    • tf.nn.l2_normalize(x, dim, epsilon=1e-12, name=None)
    • tf.nn.local_response_normalization(input, depth_radius=None, bias=None, alpha=None, beta=None, name=None)
    • tf.nn.moments(x, axes, name=None)
  • Losses
    • tf.nn.l2_loss(t, name=None)
  • Classification
    • tf.nn.sigmoid_cross_entropy_with_logits(logits, targets, name=None)
    • tf.nn.softmax(logits, name=None)
    • tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)
  • Embeddings
    • tf.nn.embedding_lookup(params, ids, name=None)
  • Evaluation

    • tf.nn.top_k(input, k, name=None)
    • tf.nn.in_top_k(predictions, targets, k, name=None)
  • Candidate Sampling(包含Sampled Loss Functions和Miscellaneous candidate sampling utilities)

  • Sampled Loss Functions

    • tf.nn.nce_loss(weights, biases, inputs, labels, num_sampled, num_classes, num_true=1, sampled_values=None, remove_accidental_hits=False, name=’nce_loss’)
    • tf.nn.sampled_softmax_loss(weights, biases, inputs, labels, num_sampled, num_classes, num_true=1, sampled_values=None, remove_accidental_hits=True, name=’sampled_softmax_loss’)
  • Candidate Samplers
    • tf.nn.uniform_candidate_sampler(true_classes, num_true, num_sampled, unique, range_max, seed=None, name=None)
    • tf.nn.log_uniform_candidate_sampler(true_classes, num_true, num_sampled, unique, range_max, seed=None, name=None)
    • tf.nn.learned_unigram_candidate_sampler(true_classes, num_true, num_sampled, unique, range_max, seed=None, name=None)
    • tf.nn.fixed_unigram_candidate_sampler(true_classes, num_true, num_sampled, unique, range_max, vocab_file=”, distortion=0.0, num_reserved_ids=0, num_shards=1, shard=0, unigrams=[], seed=None, name=None)
  • Miscellaneous candidate sampling utilities
    • tf.nn.compute_accidental_hits(true_classes, sampled_candidates, num_true, seed=None, name=None)

相關推薦

TensorFlowtf.nn

tf.nn,tf.layers, tf.contrib模組有很多功能是重複的 下面是對三個模組的簡述: tf.nn :提供神經網路相關操作的支援,包括卷積操作(conv)、池化操作(pooling

擴展之 SeleniumLibrary 元素定位

除了 ont nbsp element pan lin span BE author 發布時間 2017年9月28日 蟲師 SeleniumLibrary 元素定位 SeleniumLibrary提供了兩種指定前綴的顯式定位器策略。 第一種: strategy:

MySQL基礎——和表的管理、常見的資料型別、約束

DDL(資料定義語言):包括庫和表的管理 一、庫的管理 1、庫的建立 語法:CREATE DATABASE IF NOT EXISTS 庫名; 2、庫的修改 語法:RENAME DATABASE 舊庫名 TO 新庫名;(版本更新後不使用了,會影響庫內資料) 一般去外部檔案

轉載tf.nntf.layers, tf.contrib概述

我們在使用tensorflow時,會發現tf.nn,tf.layers, tf.contrib模組有很多功能是重複的,尤其是卷積操作,在使用的時候,我們可以根據需要現在不同的模組。但有些時候可以一起混用。        下面是對三個模組的簡

機器學習與Tensorflow7——tf.train.Saver()、inception-v3的應用

1. tf.train.Saver() tf.train.Saver()是一個類,提供了變數、模型(也稱圖Graph)的儲存和恢復模型方法。 TensorFlow是通過構造Graph的方式進行深度學習,任何操作(如卷積、池化等)都需要operator,儲存和恢復操作也不例外。 在tf.trai

演算法工程師修仙之路:TensorFlow

TensorFlow 入門 TensorFlow實現神經網路 通過 TensorFlow 訓練神經網路模型 設定神經網路引數的過程就是神經網路的訓練過程。只有經過有效訓練的神經網路模型才可以真正地解決分類或者回歸問題。 使用監督學習的方式設定神經網路引數

TensorFlow 學習 — 常用函式 api、tf.nntf.keras

0. 四則運算 平方:tf.square(),開方:tf.sqrt() tf.add()、tf.sub()、tf.mul()、tf.div()、tf.mod()、tf.abs()、tf.neg()

數據SQL Server2012筆記——java 程序操作sql server

jdb 統一 col select 封裝 query size api color 1、crud(增刪改查)介紹:create/retrieve/update/delete 2、JDBC介紹 1)JDBC(java database connectivi

企業分布式微服務雲SpringCloud SpringBoot mybatis Spring Boot中使用JdbcTemplate訪問數據

ger sele 應該 創建 測試環境 oid reg tis eat 本文介紹在Spring Boot基礎下配置數據源和通過JdbcTemplate編寫數據訪問的示例。 數據源配置 在我們訪問數據庫的時候,需要先配置一個數據源,下面分別介紹一下幾種不同的數據庫配置方式。

數據,讀寫分離到CQRS

變異 命令 建立 問題 來看 發布 24小時 實時更新 為什麽 讀寫分離 當一個公司業務不斷擴展,用戶量大量增加,原來使用的數據庫很可能就撐不住了。那麽可以 Scale-in,擴充硬件的性能,但是很可能用戶量繼續增長,增加的性能很快就吃光了。 讀寫分離:數據庫撐不住了,無

數據之連接

font eat 模式 pwd color 聯合 空值 sele ont select A.班級名, A.班級人數, B.姓名, B.聯系方式 from 班級信息 A, 輔導員信息 B where A.輔導員 = B.輔導員編號 for xml raw 基本連接  

MySQL數據高級——事務和鎖

MySQL 事務 鎖MySQL數據庫高級(七)——事務和鎖 一、事務簡介 1、事務簡介 事務(Transaction) 是指作為單個邏輯工作單元執行的一系列操作。 2、事務的特性 A、原子性(Atomicity)表示組成一個事務的多個數據庫操作是一個不可分隔的原子單元,只有所有的操作執行成功,整個事務才提交,

C++標準之iterator

控制 ins opera access 指向 begin 任務 multiset fse iterator iterator模式:提供一種方法,使之能依次訪問容器內的各個元素,而又不暴露該聚合物內部的表述方式。 STL的中心思想是將算法與數據結構分離,彼此獨立設計,最後在用

MySQL數據8列類型

最終 字段名 但是 ont 表示 英文 保存 15位 結果 列類型 整數類型 tinyint 迷你整型,系統采用一個字節來保存的整型,一個字節=8byte,最大能表示的數據是0-255。 smallint 小整型,系統采用兩個字節來保存的整型,能表示0-65535之間的整型

自學python爬蟲selenium的使用

一、基本概念 selenium,是一種自動化測施工具,支援多種瀏覽器。爬蟲中主要用來解決JavaScript渲染問題。 二、具體用法 說在前面:筆者是以GooleChrome瀏覽器來進行測試的,當然其他瀏覽器也可以,具體下面會講到不同的瀏覽器不同做法。 1、下載安裝:chr

TensorFlow 實戰—— tf train優化演算法

分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!        

python採用pika使用rabbitmqPublish\Subscribe(訊息釋出\訂閱)

之前的例子都基本都是1對1的訊息傳送和接收,即訊息只能傳送到指定的queue裡,但有些時候你想讓你的訊息被所有的Queue收到,類似廣播的效果,這時候就要用到exchange了, Exchange在定義的時候是有型別的,以決定到底是哪些Queue符合條件,可以接收訊息 fanout: 所有bin

TensorFlow學習筆記—— MNIST —— 進階

構建一個多層卷積網路 在MNIST上只有91%正確率,實在太糟糕。在這個小節裡,我們用一個稍微複雜的模型:卷積神經網路來改善效果。這會達到大概99.2%的準確率。雖然不是最高,但是還是比較讓人滿意。 權重初始化 為了建立這個模型,我們需要建立大量的權重和偏置項。這個模型

對抗神經網路學習——SRGAN生成超解析度影像(tensorflow實現)

一、背景 SRGAN(Super-Resolution Generative Adversarial Network)即超解析度GAN,是Christian Ledig等人於16年9月提出的一種對抗神經網路。利用卷積神經網路實現單影像的超解析度,其瓶頸仍在於如何恢復影象的細微紋理資訊。對於GAN

迴圈神經網路系列Tensorflow中ConvLSTMCell

前面一文我們簡單得介紹了ConvLSTM得原理和應用場景,現在來看看在Tensorflow它具體是如何實現得。 值得一說得是Tensorflow在實現這個演算法得時候並沒有使用peepholes,即下面的紅色部分,而是基於原始的LSTM網路結構改變的。不過在最後,我也會給出一個仿照