当前位置: 小金属 > 详情
天天观点:机器学习(七):梯度下降解决分类问题——perceptron感知机算法与SVM支持向量机算法进行二维点分类
2023-04-26 11:39:25    博客园

实验2 感知机算法与支持向量机算法


(资料图片仅供参考)

一、预备知识

1.感知机算法

二、实验目的

掌握感知机算法的原理及设计;

掌握利用感知机算法解决分类问题。

三、实验内容

设计感知机算法求解,设计SVM算法求解(可调用函数库),请找出支持向量和决策超平面。

四、操作方法和实验步骤

1.感知机算法求解

采用while循环判断当前权重w和截距b是否会产生误分类点,如果不产生误分类则直接返回w和b.

import numpy as npdef percep_classify_array(data_arr,label_arr,eta=0.1):    w=np.array([0,0])    b=0    m=len(data_arr)    error_data = True    while error_data:               #利用收敛特性不采用迭代方式进行,采用while循环        error_data = False        for i in range(m):            judge = label_arr[i]*(np.dot(w,data_arr[i])+b)            if judge <=0:                error_data=True                w=w+eta*(label_arr[i]*data_arr[i])                b=b+eta*label_arr[i]                print("w=",w,"b=",b,"误分类点:x_"+str(i+1))    return w,binput_vecs = [[-3,3],[-5,2],[2,4],[3,2]]input_labels = [[1],[1],[-1],[-1]]input_vecs = np.array(input_vecs)input_labels = np.array(input_labels)weight,bias = percep_classify_array(input_vecs,input_labels)print("weight=",weight,"bias=",bias,"没有误分类点了")

结果:

w= [-0.3  0.3] b= [0.1] 误分类点:x_1w= [-0.5 -0.1] b= [0.] 误分类点:x_3weight= [-0.5 -0.1] bias= [0.] 没有误分类点了

2.SVM算法求解

import numpy as npfrom sklearn import datasetsimport matplotlib.pyplot as pltclass SVM:    def __init__(self, learning_rate=0.001,lambda_param=0.0001,n_iters=10000):        self.a=learning_rate        self.lambda_param=lambda_param        self.epoch=n_iters        self.w=None        self.b=None    def fit(self,X,y):        n_samples,n_features=X.shape        y_=np.where(y<=0,-1,1)        self.w=np.zeros(n_features)        self.b=0        for epoch in range(self.epoch):            for idx,x_i in enumerate(X):                condition=y_[idx]*(np.dot(x_i,self.w)-self.b)>=1                if condition:                    self.w=self.w-self.a*(2*self.lambda_param*self.w)                else:                    self.w=self.w-self.a*(2*self.lambda_param*self.w-np.dot(x_i,y_[idx]))                    self.b=self.b-self.a*y_[idx]    def predict(self,X):        linear_output=np.dot(X,self.w)-self.b        return np.sign(linear_output)#模拟数据# X,y=datasets.make_blobs(n_samples=50,n_features=2,centers=2,cluster_std=1.05,random_state=40)# y=np.where(y==0,-1,1)#题目数据X = np.array([[-3, 3], [-5, 2], [2, 4], [3, 2]])y = np.array([1, 1, -1, -1])clf=SVM()clf.fit(X,y)print(clf.w,clf.b)def visualize_svm():    def get_hyperplane_value(x,w,b,v):        return (-w[0]*x-b+v)/w[1]    fig=plt.figure()    ax=fig.add_subplot(1,1,1)    plt.scatter(X[:,0],X[:,1],marker="o",c=y)    # x0_1=np.amin(X[:,0])    # x0_2=np.amax(X[:,0])    x0_1=-6    x0_2=6    x1_1=get_hyperplane_value(x0_1,clf.w,clf.b,0)    x1_2=get_hyperplane_value(x0_2,clf.w,clf.b,0)    x1_1_m=get_hyperplane_value(x0_1,clf.w,clf.b,-1)    x1_2_m=get_hyperplane_value(x0_2,clf.w,clf.b,-1)    x1_1_p=get_hyperplane_value(x0_1,clf.w,clf.b,1)    x1_2_p=get_hyperplane_value(x0_2,clf.w,clf.b,1)    ax.plot([x0_1,x0_2],[x1_1,x1_2],"r--")    ax.plot([x0_1,x0_2],[x1_1_m,x1_2_m],"b")    ax.plot([x0_1,x0_2],[x1_1_p,x1_2_p],"b")    plt.axhline(y=0, color="gray", linestyle="--")    plt.axvline(x=0, color="gray", linestyle="--")    # x1_min=np.amin(X[:,1])    # x1_max=np.amax(X[:,1])    # ax.set_ylim([x1_min-3,x1_max+3])    plt.xlim(-6, 6)    plt.ylim(-6, 6)    plt.show()visualize_svm()

结果:

[-0.38987422 -0.05357053] 0.007

关键词:

上一篇:五一假期来临,各地消费券密集发放! 天天微动态
下一篇:最后一页

最新资讯