视频1 视频21 视频41 视频61 视频文章1 视频文章21 视频文章41 视频文章61 推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37 推荐39 推荐41 推荐43 推荐45 推荐47 推荐49 关键词1 关键词101 关键词201 关键词301 关键词401 关键词501 关键词601 关键词701 关键词801 关键词901 关键词1001 关键词1101 关键词1201 关键词1301 关键词1401 关键词1501 关键词1601 关键词1701 关键词1801 关键词1901 视频扩展1 视频扩展6 视频扩展11 视频扩展16 文章1 文章201 文章401 文章601 文章801 文章1001 资讯1 资讯501 资讯1001 资讯1501 标签1 标签501 标签1001 关键词1 关键词501 关键词1001 关键词1501 专题2001
javascript怎样做出决策树
2020-11-27 20:01:20 责编:小采
文档


这次给大家带来javascript怎样做出决策树,javascript做出决策树的注意事项有哪些,下面就是实战案例,一起来看一下。

决策树算法代码实现

1.准备测试数据

这里我假设公司有个小姐姐相亲见面为例
得到以下是已经见面或被淘汰了的数据(部分数据使用mock.js来生成的):

var data =
 [
 { "姓名": "余夏", "年龄": 29, "长相": "帅", "体型": "瘦", "收入": "高", 见面: "见" },
 { "姓名": "豆豆", "年龄": 25, "长相": "帅", "体型": "瘦", "收入": "高", 见面: "见" },
 { "姓名": "帅常荣", "年龄": 26, "长相": "帅", "体型": "胖", "收入": "高", 见面: "见" },
 { "姓名": "王涛", "年龄": 22, "长相": "帅", "体型": "瘦", "收入": "高", 见面: "见" },
 { "姓名": "李东", "年龄": 23, "长相": "帅", "体型": "瘦", "收入": "高", 见面: "见" },
 { "姓名": "王五五", "年龄": 23, "长相": "帅", "体型": "瘦", "收入": "低", 见面: "见" },
 { "姓名": "王小涛", "年龄": 22, "长相": "帅", "体型": "瘦", "收入": "低", 见面: "见" },
 { "姓名": "李缤", "年龄": 21, "长相": "帅", "体型": "胖", "收入": "高", 见面: "见" },
 { "姓名": "刘明", "年龄": 21, "长相": "帅", "体型": "胖", "收入": "低", 见面: "不见" },
 { "姓名": "红鹤", "年龄": 21, "长相": "不帅", "体型": "胖", "收入": "高", 见面: "不见" },
 { "姓名": "李理", "年龄": 32, "长相": "帅", "体型": "瘦", "收入": "高", 见面: "不见" },
 { "姓名": "周州", "年龄": 31, "长相": "帅", "体型": "瘦", "收入": "高", 见面: "不见" },
 { "姓名": "李乐", "年龄": 27, "长相": "不帅", "体型": "胖", "收入": "高", 见面: "不见" },
 { "姓名": "韩明", "年龄": 24, "长相": "不帅", "体型": "瘦", "收入": "高", 见面: "不见" },
 { "姓名": "小吕", "年龄": 28, "长相": "帅", "体型": "瘦", "收入": "低", 见面: "不见" },
 { "姓名": "李四", "年龄": 25, "长相": "帅", "体型": "瘦", "收入": "低", 见面: "不见" },
 { "姓名": "王鹏", "年龄": 30, "长相": "帅", "体型": "瘦", "收入": "低", 见面: "不见" },
 ];

2.搭建决策树基本函数

代码:

function DecisionTree(config) { if (typeof config == "object" && !Array.isArray(config)) this.training(config);
};
DecisionTree.prototype = { //分割函数
 _predicates: {}, //统计属性值在数据集中的次数
 countUniqueValues(items, attr) {}, //获取对象中值最大的Key 假设 counter={a:9,b:2} 得到 "a" 
 getMaxKey(counter) {}, //寻找最频繁的特定属性值
 mostFrequentValue(items, attr) {}, //根据属性切割数据集 
 split(items, attr, predicate, pivot) {}, //计算熵
 entropy(items, attr) {}, //生成决策树
 buildDecisionTree(config) {}, //初始化生成决策树
 training(config) {}, //预测 测试
 predict(data) {},
};var decisionTree = new DecisionTree();

3.实现函数功能

由于部分函数过于简单我就不进行讲解了
可前往 JS简单实现决策树(ID3算法)_demo.html查看完整代码
里面包含注释,与每个函数的测试方法

这里的话我主要讲解下:计算熵的函数、生成决策树函数(信息增益)、与预测函数的实现

在 ID3算法 wiki 中解释了计算熵与信息增益的公式

3.1.计算熵(entropy)函数

我们可以知道计算H(S)(也就是熵)需要得到 p(x)=x/总数量 然后进行计算累加就行了
代码:

//......略//统计属性值在数据集中的次数countUniqueValues(items, attr) { var counter = {}; // 获取不同的结果值 与出现次数
 for (var i of items) { if (!counter[i[attr]]) counter[i[attr]] = 0;
 counter[i[attr]] += 1;
 } return counter;
},//......略//计算熵entropy(items, attr) { var counter = this.countUniqueValues(items, attr); //计算值的出现数
 var p, entropy = 0; //H(S)=entropy=∑(P(Xi)(log2(P(Xi))))
 for (var i in counter) {
 p = counter[i] / items.length; //P(Xi)概率值
 entropy += -p * Math.log2(p); //entropy+=-(P(Xi)(log2(P(Xi))))
 } return entropy;
},//......略var decisionTree = new DecisionTree();console.log("函数 countUniqueValues 测试:");console.log(" 长相", decisionTree.countUniqueValues(data, "长相")); //测试console.log(" 年龄", decisionTree.countUniqueValues(data, "年龄")); //测试console.log(" 收入", decisionTree.countUniqueValues(data, "收入")); //测试console.log("函数 entropy 测试:");console.log(" 长相", decisionTree.entropy(data, "长相")); //测试console.log(" 年龄", decisionTree.entropy(data, "年龄")); //测试console.log(" 收入", decisionTree.entropy(data, "收入")); //测试

3.2.信息增益

公式

根据公式我们知道要得到信息增益的值需要得到:

H(S) 训练集熵

p(t)分支元素的占比

H(t)分支数据集的熵

其中t我们就先分 match(合适的)和on match(不合适),所以H(t):

H(match) 分割后合适的数据集的熵

H(on match) 分割后不合适的数据集的熵

所以信息增益G=H(S)-(p(match)H(match)+p(on match)H(on match))
因为p(match)=match数量/数据集总项数量
信息增益G=H(S)-((match数量)xH(match)+(on match数量)xH(on match))/数据集总项数量

//......略buildDecisionTree(config){ var trainingSet = config.trainingSet;//训练集 
 var categoryAttr = config.categoryAttr;//用于区分的类别属性
 //......略
 //初始计算 训练集的熵
 var initialEntropy = this.entropy(trainingSet, categoryAttr);//<===H(S)
 //......略
 var alreadyChecked = [];//标识已经计算过了
 var bestSplit = { gain: 0 };//储存当前最佳的分割节点数据信息
 //遍历数据集
 for (var item of trainingSet) { // 遍历项中的所有属性
 for (var attr in item) { //跳过区分属性与忽略属性
 if ((attr == categoryAttr) || (ignoredAttributes.indexOf(attr) >= 0)) continue; var pivot = item[attr];// 当前属性的值 
 var predicateName = ((typeof pivot == 'number') ? '>=' : '=='); //根据数据类型选择判断条件
 var attrPredPivot = attr + predicateName + pivot; if (alreadyChecked.indexOf(attrPredPivot) >= 0) continue;//已经计算过则跳过
 alreadyChecked.push(attrPredPivot);//记录
 var predicate = this._predicates[predicateName];//匹配分割方式
 var currSplit = this.split(trainingSet, attr, predicate, pivot); var matchEntropy = this.entropy(currSplit.match, categoryAttr);// H(match) 计算分割后合适的数据集的熵
 var notMatchEntropy = this.entropy(currSplit.notMatch, categoryAttr);// H(on match) 计算分割后不合适的数据集的熵
 //计算信息增益: 
 // IG(A,S)=H(S)-(∑P(t)H(t))) 
 // t为的子集match(匹配),on match(不匹配)
 // P(match)=match的长度/数据集的长度
 // P(on match)=on match的长度/数据集的长度
 var iGain = initialEntropy - ((matchEntropy * currSplit.match.length
 + notMatchEntropy * currSplit.notMatch.length) / trainingSet.length); //不断匹配最佳增益值对应的节点信息
 if (iGain > bestSplit.gain) { //......略
 }
 }
 } 
 //......递归计算分支}

相信看了本文案例你已经掌握了方法,更多精彩请关注Gxl网其它相关文章!

相关阅读:

如何使用canvas来制作好用的涂鸦画板

如何使用s-xlsx实现Excel 文件导入和导出(下)

下载本文
显示全文
专题