Skip to content

3.3-LogisticRegression 中 gradient 里面的p1是不是写成了p0的表达式? #4

@honeyshine75

Description

@honeyshine75

你好,我看你的代码写的是
p1 = sigmoid(np.dot(X_hat, beta)),
但书中说令p1(x_hat;beta) = p(y=1 | x_hat;beta)
而根据公式3.23来看,你那个代码是好像不对

还是说我的理解有错误?
这里的p1(x_hat;beta) = p(y=1 | x_hat;beta)
是否等于公式3.23?

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions