您的位置:首页 > 编程语言 > Python开发

Logistic回归(改进的随机梯度上升)

2016-03-12 17:07 633 查看
上一节我们讨论的随机梯度上升算法在进行迭代的过程中回归系数会出现激烈的改变,这一节我们对上一节的算法进行改进:

def stocGradAscent1(dataMatrix, classLabels, numIter=150):
m,n = shape(dataMatrix)
weights = ones(n) #initialize to all ones
for j in range(numIter):
dataIndex = range(m)
for i in range(m):
alpha = 4/(1.0+j+i)+0.0001
randIndex = int(random.uniform(0,len(dataIndex)))
h = sigmoid(sum(dataMatrix[randIndex]*weights))
error = classLabels[randIndex] - h
weights = weights + alpha * error * dataMatrix[randIndex]
del(dataIndex[randIndex])
return weights在这个改进的算法中我们增加了两处代码,步长会随着迭代的次数增加而不断减小,但是不会减小到0,如果处理的是动态变化的问题可以适当的加大常数项。第二处改进的地方是回归系数的更新是通过随机选取样本点来进行的。这样可以减少周期性的波动。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息