如果隨機變量X的所有取值都可以逐個列舉出來,則稱X為離散型隨機變量。相應的概率分布有二項分布,泊松分布。
站在用戶的角度思考問題,與客戶深入溝通,找到德清網站設計與德清網站推廣的解決方案,憑借多年的經驗,讓設計與互聯網技術結合,創造個性化、用戶體驗好的作品,建站類型包括:成都網站建設、成都網站設計、企業官網、英文網站、手機端網站、網站推廣、申請域名、雅安服務器托管、企業郵箱。業務覆蓋德清地區。
如果隨機變量X的所有取值無法逐個列舉出來,而是取數軸上某一區間內的任一點,則稱X為連續型隨機變量。相應的概率分布有正態分布,均勻分布,指數分布,伽馬分布,偏態分布,卡方分布,beta分布等。(真多分布,好恐怖~~)
在離散型隨機變量X的一切可能值中,各可能值與其對應概率的乘積之和稱為該隨機變量X的期望值,記作E(X) 。比如有隨機變量,取值依次為:2,2,2,4,5。求其平均值:(2+2+2+4+5)/5 = 3。
期望值也就是該隨機變量總體的均值。 推導過程如下:
= (2+2+2+4+5)/5
= 1/5 2 3 + 4/5 + 5/5
= 3/5 2 + 1/5 4 + 1/5 5
= 0.6 2 + 0.2 4 + 0.2 5
= 60% 2 + 20% 4 + 20%*5
= 1.2 + 0.8 + 1
= 3
倒數第三步可以解釋為值為2的數字出現的概率為60%,4的概率為20%,5的概率為20%。 所以E(X) = 60% 2 + 20% 4 + 20%*5 = μ = 3。
0-1分布(兩點分布),它的隨機變量的取值為1或0。即離散型隨機變量X的概率分布為:P{X=0} = 1-p, P{X=1} = p,即:
則稱隨機變量X服從參數為p的0-1分布,記作X~B(1,p)。
在生活中有很多例子服從兩點分布,比如投資是否中標,新生嬰兒是男孩還是女孩,檢查產品是否合格等等。
大家非常熟悉的拋硬幣試驗對應的分布就是二項分布。拋硬幣試驗要么出現正面,要么就是反面,只包含這兩個結果。出現正面的次數是一個隨機變量,這種隨機變量所服從的概率分布通常稱為 二項分布 。
像拋硬幣這類試驗所具有的共同性質總結如下:(以拋硬幣為例)
通常稱具有上述特征的n次重復獨立試驗為n重伯努利試驗。簡稱伯努利試驗或伯努利試驗概型。特別地,當試驗次數為1時,二項分布服從0-1分布(兩點分布)。
舉個栗子:拋3次均勻的硬幣,求結果出現有2個正面的概率 。
已知p = 0.5 (出現正面的概率) ,n = 3 ,k = 2
所以拋3次均勻的硬幣,求結果出現有2個正面的概率為3/8。
二項分布的期望值和方差 分別為:
泊松分布是用來描述在一 指定時間范圍內或在指定的面積或體積之內某一事件出現的次數的分布 。生活中服從泊松分布的例子比如有每天房產中介接待的客戶數,某微博每月出現服務器癱瘓的次數等等。 泊松分布的公式為 :
其中 λ 為給定的時間間隔內事件的平均數,λ = np。e為一個數學常數,一個無限不循環小數,其值約為2.71828。
泊松分布的期望值和方差 分別為:
使用Python繪制泊松分布的概率分布圖:
因為連續型隨機變量可以取某一區間或整個實數軸上的任意一個值,所以通常用一個函數f(x)來表示連續型隨機變量,而f(x)就稱為 概率密度函數 。
概率密度函數f(x)具有如下性質 :
需要注意的是,f(x)不是一個概率,即f(x) ≠ P(X = x) 。在連續分布的情況下,隨機變量X在a與b之間的概率可以寫成:
正態分布(或高斯分布)是連續型隨機變量的最重要也是最常見的分布,比如學生的考試成績就呈現出正態分布的特征,大部分成績集中在某個范圍(比如60-80分),很小一部分往兩端傾斜(比如50分以下和90多分以上)。還有人的身高等等。
正態分布的定義 :
如果隨機變量X的概率密度為( -∞x+∞):
則稱X服從正態分布,記作X~N(μ,σ2)。其中-∞μ+∞,σ0, μ為隨機變量X的均值,σ為隨機變量X的標準差。 正態分布的分布函數
正態分布的圖形特點 :
使用Python繪制正態分布的概率分布圖:
正態分布有一個3σ準則,即數值分布在(μ-σ,μ+σ)中的概率為0.6827,分布在(μ-2σ,μ+2σ)中的概率為0.9545,分布在(μ-3σ,μ+3σ)中的概率為0.9973,也就是說大部分數值是分布在(μ-3σ,μ+3σ)區間內,超出這個范圍的可能性很小很小,僅占不到0.3%,屬于極個別的小概率事件,所以3σ準則可以用來檢測異常值。
當μ=0,σ=1時,有
此時的正態分布N(0,1) 稱為標準正態分布。因為μ,σ都是確定的取值,所以其對應的概率密度曲線是一條 形態固定 的曲線。
對標準正態分布,通常用φ(x)表示概率密度函數,用Φ(x)表示分布函數:
假設有一次物理考試特別難,滿分100分,全班只有大概20個人及格。與此同時語文考試很簡單,全班絕大部分都考了90分以上。小明的物理和語文分別考了60分和80分,他回家后告訴家長,這時家長能僅僅從兩科科目的分值直接判斷出這次小明的語文成績要比物理好很多嗎?如果不能,應該如何判斷呢?此時Z-score就派上用場了。 Z-Score的計算定義 :
即 將隨機變量X先減去總體樣本均值,再除以總體樣本標準差就得到標準分數啦。如果X低于平均值,則Z為負數,反之為正數 。通過計算標準分數,可以將任何一個一般的正態分布轉化為標準正態分布。
小明家長從老師那得知物理的全班平均成績為40分,標準差為10,而語文的平均成績為92分,標準差為4。分別計算兩科成績的標準分數:
物理:標準分數 = (60-40)/10 = 2
語文:標準分數 = (85-95)/4 = -2.5
從計算結果來看,說明這次考試小明的物理成績在全部同學中算是考得很不錯的,而語文考得很差。
指數分布可能容易和前面的泊松分布混淆,泊松分布強調的是某段時間內隨機事件發生的次數的概率分布,而指數分布說的是 隨機事件發生的時間間隔 的概率分布。比如一班地鐵進站的間隔時間。如果隨機變量X的概率密度為:
則稱X服從指數分布,其中的參數λ0。 對應的分布函數 為:
均勻分布的期望值和方差 分別為:
使用Python繪制指數分布的概率分布圖:
均勻分布有兩種,分為 離散型均勻分布和連續型均勻分布 。其中離散型均勻分布最常見的例子就是拋擲骰子啦。拋擲骰子出現的點數就是一個離散型隨機變量,點數可能有1,2,3,4,5,6。每個數出現的概率都是1/6。
設連續型隨機變量X具有概率密度函數:
則稱X服從區間(a,b)上的均勻分布。X在等長度的子區間內取值的概率相同。對應的分布函數為:
f(x)和F(x)的圖形分別如下圖所示:
均勻分布的期望值和方差 分別為:
python中range()函數的用法:
(1)range(stop)
創建一個(0,stop)之間的整數序列,步長為1。
(2)range(start,stop)
創建一個(start,stop)之間的整數序列,步長為1。
(3)range(start,stop,step)
創建一個[start,stop)之間的整數序列,步長為step。
參數介紹:
start:表示從返回序列的起始編號,默認情況下從0開始。
stop:表示生成最多但不包括此數字的數字。
step:指的是序列中每個數字之間的差異,默認值為1。
相關介紹
range()是Python的內置函數,在用戶需要執行特定次數的操作時使用它,表示循環的意思。內置函數range()可用于以列表的形式生成數字序列。在range()函數中最常見用法是使用for和while循環迭代序列類型(List,string等)。
簡單的來說,range()函數允許用戶在給定范圍內生成一系列數字。根據用戶傳遞給函數的參數數量,用戶可以決定該系列數字的開始和結束位置以及一個數字與下一個數字之間的差異有多大。
徑向分布函數通常指的是給定某個粒子的坐標,其他粒子在空間的分布幾率(離給定粒子多遠)。所以徑向分布函數既可以用來研究物質的有序性,也可以用來描述電子的相關性。
徑向基(RBF)神經網絡python實現
1 from numpy import array, append, vstack, transpose, reshape, \
2 ? ? ? ? ? ? ? ? ? dot, true_divide, mean, exp, sqrt, log, \
3 ? ? ? ? ? ? ? ? ? loadtxt, savetxt, zeros, frombuffer
4 from numpy.linalg import norm, lstsq
5 from multiprocessing import Process, Array
6 from random import sample
7 from time import time
8 from sys import stdout
9 from ctypes import c_double
10 from h5py import File
11
12
13 def metrics(a, b):
14 ? ? return norm(a - b)
15
16
17 def gaussian (x, mu, sigma):
18 ? ? return exp(- metrics(mu, x)**2 / (2 * sigma**2))
21 def multiQuadric (x, mu, sigma):
22 ? ? return pow(metrics(mu,x)**2 + sigma**2, 0.5)
23
24
25 def invMultiQuadric (x, mu, sigma):
26 ? ? return pow(metrics(mu,x)**2 + sigma**2, -0.5)
27
28
29 def plateSpine (x,mu):
30 ? ? r = metrics(mu,x)
31 ? ? return (r**2) * log(r)
32
33
34 class Rbf:
35 ? ? def __init__(self, prefix = 'rbf', workers = 4, extra_neurons = 0, from_files = None):
36 ? ? ? ? self.prefix = prefix
37 ? ? ? ? self.workers = workers
38 ? ? ? ? self.extra_neurons = extra_neurons
39
40 ? ? ? ? # Import partial model
41 ? ? ? ? if from_files is not None: ? ? ? ? ?
42 ? ? ? ? ? ? w_handle = self.w_handle = File(from_files['w'], 'r')
43 ? ? ? ? ? ? mu_handle = self.mu_handle = File(from_files['mu'], 'r')
44 ? ? ? ? ? ? sigma_handle = self.sigma_handle = File(from_files['sigma'], 'r')
45 ? ? ? ? ?
46 ? ? ? ? ? ? self.w = w_handle['w']
47 ? ? ? ? ? ? self.mu = mu_handle['mu']
48 ? ? ? ? ? ? self.sigmas = sigma_handle['sigmas']
49 ? ? ? ? ?
50 ? ? ? ? ? ? self.neurons = self.sigmas.shape[0]
51
52 ? ? def _calculate_error(self, y):
53 ? ? ? ? self.error = mean(abs(self.os - y))
54 ? ? ? ? self.relative_error = true_divide(self.error, mean(y))
55
56 ? ? def _generate_mu(self, x):
57 ? ? ? ? n = self.n
58 ? ? ? ? extra_neurons = self.extra_neurons
59
60 ? ? ? ? # TODO: Make reusable
61 ? ? ? ? mu_clusters = loadtxt('clusters100.txt', delimiter='\t')
62
63 ? ? ? ? mu_indices = sample(range(n), extra_neurons)
64 ? ? ? ? mu_new = x[mu_indices, :]
65 ? ? ? ? mu = vstack((mu_clusters, mu_new))
66
67 ? ? ? ? return mu
68
69 ? ? def _calculate_sigmas(self):
70 ? ? ? ? neurons = self.neurons
71 ? ? ? ? mu = self.mu
72
73 ? ? ? ? sigmas = zeros((neurons, ))
74 ? ? ? ? for i in xrange(neurons):
75 ? ? ? ? ? ? dists = [0 for _ in xrange(neurons)]
76 ? ? ? ? ? ? for j in xrange(neurons):
77 ? ? ? ? ? ? ? ? if i != j:
78 ? ? ? ? ? ? ? ? ? ? dists[j] = metrics(mu[i], mu[j])
79 ? ? ? ? ? ? sigmas[i] = mean(dists)* 2
80 ? ? ? ? ? ? ? ? ? ? ? # max(dists) / sqrt(neurons * 2))
81 ? ? ? ? return sigmas
82
83 ? ? def _calculate_phi(self, x):
84 ? ? ? ? C = self.workers
85 ? ? ? ? neurons = self.neurons
86 ? ? ? ? mu = self.mu
87 ? ? ? ? sigmas = self.sigmas
88 ? ? ? ? phi = self.phi = None
89 ? ? ? ? n = self.n
90
91
92 ? ? ? ? def heavy_lifting(c, phi):
93 ? ? ? ? ? ? s = jobs[c][1] - jobs[c][0]
94 ? ? ? ? ? ? for k, i in enumerate(xrange(jobs[c][0], jobs[c][1])):
95 ? ? ? ? ? ? ? ? for j in xrange(neurons):
96 ? ? ? ? ? ? ? ? ? ? # phi[i, j] = metrics(x[i,:], mu[j])**3)
97 ? ? ? ? ? ? ? ? ? ? # phi[i, j] = plateSpine(x[i,:], mu[j]))
98 ? ? ? ? ? ? ? ? ? ? # phi[i, j] = invMultiQuadric(x[i,:], mu[j], sigmas[j]))
99 ? ? ? ? ? ? ? ? ? ? phi[i, j] = multiQuadric(x[i,:], mu[j], sigmas[j])
100 ? ? ? ? ? ? ? ? ? ? # phi[i, j] = gaussian(x[i,:], mu[j], sigmas[j]))
101 ? ? ? ? ? ? ? ? if k % 1000 == 0:
102 ? ? ? ? ? ? ? ? ? ? percent = true_divide(k, s)*100
103 ? ? ? ? ? ? ? ? ? ? print(c, ': {:2.2f}%'.format(percent))
104 ? ? ? ? ? ? print(c, ': Done')
105 ? ? ?
106 ? ? ? ? # distributing the work between 4 workers
107 ? ? ? ? shared_array = Array(c_double, n * neurons)
108 ? ? ? ? phi = frombuffer(shared_array.get_obj())
109 ? ? ? ? phi = phi.reshape((n, neurons))
110
111 ? ? ? ? jobs = []
112 ? ? ? ? workers = []
113
114 ? ? ? ? p = n / C
115 ? ? ? ? m = n % C
116 ? ? ? ? for c in range(C):
117 ? ? ? ? ? ? jobs.append((c*p, (c+1)*p + (m if c == C-1 else 0)))
118 ? ? ? ? ? ? worker = Process(target = heavy_lifting, args = (c, phi))
119 ? ? ? ? ? ? workers.append(worker)
120 ? ? ? ? ? ? worker.start()
121
122 ? ? ? ? for worker in workers:
123 ? ? ? ? ? ? worker.join()
124
125 ? ? ? ? return phi
126
127 ? ? def _do_algebra(self, y):
128 ? ? ? ? phi = self.phi
129
130 ? ? ? ? w = lstsq(phi, y)[0]
131 ? ? ? ? os = dot(w, transpose(phi))
132 ? ? ? ? return w, os
133 ? ? ? ? # Saving to HDF5
134 ? ? ? ? os_h5 = os_handle.create_dataset('os', data = os)
135
136 ? ? def train(self, x, y):
137 ? ? ? ? self.n = x.shape[0]
138
139 ? ? ? ? ## Initialize HDF5 caches
140 ? ? ? ? prefix = self.prefix
141 ? ? ? ? postfix = str(self.n) + '-' + str(self.extra_neurons) + '.hdf5'
142 ? ? ? ? name_template = prefix + '-{}-' + postfix
143 ? ? ? ? phi_handle = self.phi_handle = File(name_template.format('phi'), 'w')
144 ? ? ? ? os_handle = self.w_handle = File(name_template.format('os'), 'w')
145 ? ? ? ? w_handle = self.w_handle = File(name_template.format('w'), 'w')
146 ? ? ? ? mu_handle = self.mu_handle = File(name_template.format('mu'), 'w')
147 ? ? ? ? sigma_handle = self.sigma_handle = File(name_template.format('sigma'), 'w')
148
149 ? ? ? ? ## Mu generation
150 ? ? ? ? mu = self.mu = self._generate_mu(x)
151 ? ? ? ? self.neurons = mu.shape[0]
152 ? ? ? ? print('({} neurons)'.format(self.neurons))
153 ? ? ? ? # Save to HDF5
154 ? ? ? ? mu_h5 = mu_handle.create_dataset('mu', data = mu)
155
156 ? ? ? ? ## Sigma calculation
157 ? ? ? ? print('Calculating Sigma...')
158 ? ? ? ? sigmas = self.sigmas = self._calculate_sigmas()
159 ? ? ? ? # Save to HDF5
160 ? ? ? ? sigmas_h5 = sigma_handle.create_dataset('sigmas', data = sigmas)
161 ? ? ? ? print('Done')
162
163 ? ? ? ? ## Phi calculation
164 ? ? ? ? print('Calculating Phi...')
165 ? ? ? ? phi = self.phi = self._calculate_phi(x)
166 ? ? ? ? print('Done')
167 ? ? ? ? # Saving to HDF5
168 ? ? ? ? print('Serializing...')
169 ? ? ? ? phi_h5 = phi_handle.create_dataset('phi', data = phi)
170 ? ? ? ? del phi
171 ? ? ? ? self.phi = phi_h5
172 ? ? ? ? print('Done')
173
174 ? ? ? ? ## Algebra
175 ? ? ? ? print('Doing final algebra...')
176 ? ? ? ? w, os = self.w, _ = self._do_algebra(y)
177 ? ? ? ? # Saving to HDF5
178 ? ? ? ? w_h5 = w_handle.create_dataset('w', data = w)
179 ? ? ? ? os_h5 = os_handle.create_dataset('os', data = os)
180
181 ? ? ? ? ## Calculate error
182 ? ? ? ? self._calculate_error(y)
183 ? ? ? ? print('Done')
184
185 ? ? def predict(self, test_data):
186 ? ? ? ? mu = self.mu = self.mu.value
187 ? ? ? ? sigmas = self.sigmas = self.sigmas.value
188 ? ? ? ? w = self.w = self.w.value
189
190 ? ? ? ? print('Calculating phi for test data...')
191 ? ? ? ? phi = self._calculate_phi(test_data)
192 ? ? ? ? os = dot(w, transpose(phi))
193 ? ? ? ? savetxt('iok3834.txt', os, delimiter='\n')
194 ? ? ? ? return os
195
196 ? ? @property
197 ? ? def summary(self):
198 ? ? ? ? return '\n'.join( \
199 ? ? ? ? ? ? ['-----------------',
200 ? ? ? ? ? ? 'Training set size: {}'.format(self.n),
201 ? ? ? ? ? ? 'Hidden layer size: {}'.format(self.neurons),
202 ? ? ? ? ? ? '-----------------',
203 ? ? ? ? ? ? 'Absolute error ? : {:02.2f}'.format(self.error),
204 ? ? ? ? ? ? 'Relative error ? : {:02.2f}%'.format(self.relative_error * 100)])
205
206
207 def predict(test_data):
208 ? ? mu = File('rbf-mu-212243-2400.hdf5', 'r')['mu'].value
209 ? ? sigmas = File('rbf-sigma-212243-2400.hdf5', 'r')['sigmas'].value
210 ? ? w = File('rbf-w-212243-2400.hdf5', 'r')['w'].value
211
212 ? ? n = test_data.shape[0]
213 ? ? neur = mu.shape[0]
214 ?
215 ? ? mu = transpose(mu)
216 ? ? mu.reshape((n, neur))
217
218 ? ? phi = zeros((n, neur))
219 ? ? for i in range(n):
220 ? ? ? ? for j in range(neur):
221 ? ? ? ? ? ? phi[i, j] = multiQuadric(test_data[i,:], mu[j], sigmas[j])
222
223 ? ? os = dot(w, transpose(phi))
224 ? ? savetxt('iok3834.txt', os, delimiter='\n')
225 ? ? return os
R編程語言已經成為統計分析中的事實標準。但在這篇文章中,我將告訴你在Python中實現統計學概念會是如此容易。我要使用Python實現一些離散和連續的概率分布。雖然我不會討論這些分布的數學細節,但我會以鏈接的方式給你一些學習這些統計學概念的好資料。在討論這些概率分布之前,我想簡單說說什么是隨機變量(random variable)。隨機變量是對一次試驗結果的量化。
舉個例子,一個表示拋硬幣結果的隨機變量可以表示成
Python
1
2
X = {1 如果正面朝上,
2 如果反面朝上}
隨機變量是一個變量,它取值于一組可能的值(離散或連續的),并服從某種隨機性。隨機變量的每個可能取值的都與一個概率相關聯。隨機變量的所有可能取值和與之相關聯的概率就被稱為概率分布(probability distributrion)。
我鼓勵大家仔細研究一下scipy.stats模塊。
概率分布有兩種類型:離散(discrete)概率分布和連續(continuous)概率分布。
離散概率分布也稱為概率質量函數(probability mass function)。離散概率分布的例子有伯努利分布(Bernoulli distribution)、二項分布(binomial distribution)、泊松分布(Poisson distribution)和幾何分布(geometric distribution)等。
連續概率分布也稱為概率密度函數(probability density function),它們是具有連續取值(例如一條實線上的值)的函數。正態分布(normal distribution)、指數分布(exponential distribution)和β分布(beta distribution)等都屬于連續概率分布。
若想了解更多關于離散和連續隨機變量的知識,你可以觀看可汗學院關于概率分布的視頻。
二項分布(Binomial Distribution)
服從二項分布的隨機變量X表示在n個獨立的是/非試驗中成功的次數,其中每次試驗的成功概率為p。
E(X) =?np, Var(X) =?np(1?p)
如果你想知道每個函數的原理,你可以在IPython筆記本中使用help file命令。?E(X)表示分布的期望或平均值。
鍵入stats.binom?了解二項分布函數binom的更多信息。
二項分布的例子:拋擲10次硬幣,恰好兩次正面朝上的概率是多少?
假設在該試驗中正面朝上的概率為0.3,這意味著平均來說,我們可以期待有3次是硬幣正面朝上的。我定義擲硬幣的所有可能結果為k = np.arange(0,11):你可能觀測到0次正面朝上、1次正面朝上,一直到10次正面朝上。我使用stats.binom.pmf計算每次觀測的概率質量函數。它返回一個含有11個元素的列表(list),這些元素表示與每個觀測相關聯的概率值。
您可以使用.rvs函數模擬一個二項隨機變量,其中參數size指定你要進行模擬的次數。我讓Python返回10000個參數為n和p的二項式隨機變量。我將輸出這些隨機變量的平均值和標準差,然后畫出所有的隨機變量的直方圖。
泊松分布(Poisson Distribution)
一個服從泊松分布的隨機變量X,表示在具有比率參數(rate parameter)λ的一段固定時間間隔內,事件發生的次數。參數λ告訴你該事件發生的比率。隨機變量X的平均值和方差都是λ。
E(X) =?λ, Var(X) =?λ
泊松分布的例子:已知某路口發生事故的比率是每天2次,那么在此處一天內發生4次事故的概率是多少?
讓我們考慮這個平均每天發生2起事故的例子。泊松分布的實現和二項分布有些類似,在泊松分布中我們需要指定比率參數。泊松分布的輸出是一個數列,包含了發生0次、1次、2次,直到10次事故的概率。我用結果生成了以下圖片。
你可以看到,事故次數的峰值在均值附近。平均來說,你可以預計事件發生的次數為λ。嘗試不同的λ和n的值,然后看看分布的形狀是怎么變化的。
現在我來模擬1000個服從泊松分布的隨機變量。
正態分布(Normal Distribution)
正態分布是一種連續分布,其函數可以在實線上的任何地方取值。正態分布由兩個參數描述:分布的平均值μ和方差σ2?。
E(X) =?μ, Var(X) =?σ2
正態分布的取值可以從負無窮到正無窮。你可以注意到,我用stats.norm.pdf得到正態分布的概率密度函數。
β分布(Beta Distribution)
β分布是一個取值在?[0, 1]?之間的連續分布,它由兩個形態參數α和β的取值所刻畫。
β分布的形狀取決于α和β的值。貝葉斯分析中大量使用了β分布。
當你將參數α和β都設置為1時,該分布又被稱為均勻分布(uniform distribution)。嘗試不同的α和β取值,看看分布的形狀是如何變化的。
指數分布(Exponential Distribution)
指數分布是一種連續概率分布,用于表示獨立隨機事件發生的時間間隔。比如旅客進入機場的時間間隔、打進客服中心電話的時間間隔、中文維基百科新條目出現的時間間隔等等。
我將參數λ設置為0.5,并將x的取值范圍設置為 $[0, 15]$ 。
接著,我在指數分布下模擬1000個隨機變量。scale參數表示λ的倒數。函數np.std中,參數ddof等于標準偏差除以 $n-1$ 的值。
結語(Conclusion)
概率分布就像蓋房子的藍圖,而隨機變量是對試驗事件的總結。我建議你去看看哈佛大學數據科學課程的講座,Joe Blitzstein教授給了一份摘要,包含了你所需要了解的關于統計模型和分布的全部。
當前題目:python徑向分布函數,徑向分布函數怎么理解
鏈接地址:http://m.kartarina.com/article22/hegsjc.html
成都網站建設公司_創新互聯,為您提供品牌網站設計、搜索引擎優化、靜態網站、微信小程序、軟件開發、外貿建站
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯