#找出共有值进行变量筛选(两个数据都去除了>50%缺失和伪重复)
A<-read.csv("/Users/lyc/Desktop/2013me.csv",header=T)
colnames(A)[1] <- "flavor"
B<-read.csv("/Users/lyc/Desktop/13e.csv",header=F)
B[1,1] <- "flavor"
df<-B[,]
df<-as.character(df)
library(dplyr)
C<-select(A,c(df))
#缺失填充
library(Hmisc)
na<-impute(C$tlfm200,mean)
C$tlfm200<-na
#共线性检查
XX<-cor(C[-1])
kappa(XX,extra=TRUE)
#变量筛选
#1.根据阈值筛选
library(Hmisc)
res<-rcorr(as.matrix(C[-1]))
Sat_Var <- character()
j=1
for(i in 1:nrow(res$r)){
Var_Cor <- as.vector(res$r[,i][-i])
if(all(Var_Cor < 0.8) & all(Var_Cor > -0.8)){
Sat_Var[j] <- colnames(res$r)[i]
j = j + 1
}
}
#2.提取相关程度较低的变量
irrel<-c("flavor",Sat_Var[])
D<-select(C,c(irrel))
#将数据分为训练集和测试集
library(tidyverse)
library(lattice)
library(caret)
library(nnet)
library(magrittr)
library(MASS)
set.seed(123)
training.samples<-D$flavor%>%
createDataPartition(p=0.8,list=FALSE)
train.data<-D[training.samples,]
test.data<-D[-training.samples,]
#建立模型
model<-nnet::multinom(flavor ~.,data= train.data,MaxNWts=1500)
#变量选择
stepAIC(model,direction = "forward")
#查看结果
summary(model)
#进行预测
predicted.classes<-model%>%
predict(test.data)
head(predicted.classes)
#模型的准确性
mean(predicted.classes==test.data$flavor)
#用2014年数据验证预测模型
E<-read.csv("/Users/lyc/Desktop/2014me.csv",header=T)
library(zoo)
E[]<-lapply(E,na.aggregate)
colnames(E)[1] <- "flavor"
predicted.classes2<-model%>%
predict(E)
head(predicted.classes2)
mean(predicted.classes2==E$flavor)
在新的电脑上试了一遍,添加了一点东西
网友评论