這期內(nèi)容當(dāng)中小編將會給大家?guī)碛嘘P(guān)Tensorflow中變量初始化函數(shù)的作用是什么,文章內(nèi)容豐富且以專業(yè)的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
Tensorflow 提供了7種不同的初始化函數(shù):
tf.constant_initializer(value) #將變量初始化為給定的常量,初始化一切所提供的值。
假設(shè)在卷積層中,設(shè)置偏執(zhí)項b為0,則寫法為: 1. bias_initializer=tf.constant_initializer(0) 2. bias_initializer=tf.zeros_initializer(0)
tf.random_normal_initializer(mean,stddev) #功能是將變量初始化為滿足正太分布的隨機(jī)值,主要參數(shù)(正太分布的均值和標(biāo)準(zhǔn)差),用所給的均值和標(biāo)準(zhǔn)差初始化均勻分布
tf.truncated_normal_initializer(mean,stddev,seed,dtype) #功能:將變量初始化為滿足正太分布的隨機(jī)值,但如果隨機(jī)出來的值偏離平均值超過2個標(biāo)準(zhǔn)差,那么這個數(shù)將會被重新隨機(jī)
mean:用于指定均值;stddev用于指定標(biāo)準(zhǔn)差;seed:用于指定隨機(jī)數(shù)種子;dtype:用于指定隨機(jī)數(shù)的數(shù)據(jù)類型。 通常只需要設(shè)定一個標(biāo)準(zhǔn)差stddev這一個參數(shù)就可以。
tf.random_uniform_initializer(a,b,seed,dtype) #從a到b均勻初始化,將變量初始化為滿足平均分布的隨機(jī)值,主要參數(shù)(大值,最小值)
tf.uniform_unit_scaling_initializer(factor,seed,dtypr) #將變量初始化為滿足平均分布但不影響輸出數(shù)量級的隨機(jī)值
max_val=math.sqrt(3/input_size)*factor; input_size指輸入數(shù)據(jù)的維數(shù),假設(shè)輸入為x,計算為x*w,則input_size=w.shape[0]. 其分布區(qū)間為[-max_val,max_val]
tf.zeros_initializer() #將變量設(shè)置為全0;也可以簡寫為tf.Zeros()
tf.ones_initializer() #將變量設(shè)置為全1;可簡寫為tf.Ones()
上述就是小編為大家分享的Tensorflow中變量初始化函數(shù)的作用是什么了,如果剛好有類似的疑惑,不妨參照上述分析進(jìn)行理解。如果想知道更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。
當(dāng)前標(biāo)題:Tensorflow中變量初始化函數(shù)的作用是什么-創(chuàng)新互聯(lián)
當(dāng)前地址:http://m.kartarina.com/article18/eoidp.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供外貿(mào)網(wǎng)站建設(shè)、定制網(wǎng)站、關(guān)鍵詞優(yōu)化、企業(yè)網(wǎng)站制作、服務(wù)器托管、移動網(wǎng)站建設(shè)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容