日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
講解一下Python邏輯回歸問題

logistic回歸又稱logistic回歸分析,是一種廣義的線性回歸分析模型,常用于數(shù)據(jù)挖掘,疾病自動診斷,經(jīng)濟預(yù)測等領(lǐng)域。例如,探討引發(fā)疾病的危險因素,并根據(jù)危險因素預(yù)測疾病發(fā)生的概率等。

Logistic Regression Classifier邏輯回歸主要思想就是用最大似然概率方法構(gòu)建出方程,為最大化方程,利用牛頓梯度上升求解方程參數(shù)。

優(yōu)點:計算代價不高,易于理解和實現(xiàn)。 缺點:容易欠擬合,分類精度可能不高。 使用數(shù)據(jù)類型:數(shù)值型和標稱型數(shù)據(jù)。 好了,下面開始正文。

算法的思路我就不說了,我就提供一個萬能模板,適用于任何緯度數(shù)據(jù)集。 雖然代碼類似于梯度下降,但他是個分類算法

定義sigmoid函數(shù)

def sigmoid(x):
return 1/(1+np.exp(-x))

進行邏輯回歸的參數(shù)設(shè)置以及迭代

def weights(x,y,alpha,thershold):
#初始化參數(shù)
m,n = x_train.shape
theta = np.random.rand(n) #參數(shù)
cnt = 0 # 迭代次數(shù)
max_iter = 50000
#開始迭代
while cnt for i in range(m):
diff = (y[i]-sigmoid(theta.T @ x[i]))*x[i]
theta = theta + alpha * diff
if(abs(diff)
  
   break 
   return theta 
  

預(yù)測函數(shù)

def predict(x_test,theta):
if sigmoid(theta.T @ x_test)>0.5:
return 1
else:return 0

調(diào)用函數(shù)

x_train = np.array([[1,2.697,6.254],
[1,1.872,2.014],
[1,2.312,0.812],
[1,1.983,4.990],
[1,0.932,3.920],
[1,1.321,5.583],
[1,2.215,1.560],
[1,1.659,2.932],
[1,0.865,7.362],
[1,1.685,4.763],
[1,1.786,2.523]])
y_train = np.array([1,0,0,1,0,1,0,0,1,0,1])
alpha = 0.001 # 學習率
thershold = 0.01 # 指定一個閾值,用于檢查兩次誤差
print(weights(x_train,y_train,alpha,thershold))

當前文章:講解一下Python邏輯回歸問題
瀏覽路徑:http://www.5511xx.com/article/cdsdpgp.html