前言

本文用尽量简短和明了的方式说明什么是模糊评价模型,以及怎么使用,所以表述可能在数理上不太严谨,请读者多加包涵。

什么是模糊数学模型

1965 年,美国著名计算机与控制专家查德(L.A.Zadeh)教授提出了模糊的概念,并在国际期刊《Information and Control》并发表了第一篇用数学方法研究模糊现象的论文“Fuzzy Sets”(模糊集合),开创了模糊数学的新领域。

模糊数学中有一个研究的热点问题就是“模糊决策”,它就是研究在模糊环境下或者模糊系统中进行决策的数学理论和方法。模糊决策的目标是把决策论域中的对象在模糊环境下进行排序,或按某些模糊限制条件从决策域中选择出最优对象。

当被评价的对象有两个以上时,从多个对象中选择出一个最优的方法称为多目标模糊综合评价决策法。可以将多个事物排序,得到相对排名和得分。
对于美赛,很多问题都可以通过模糊评价模型来得到答案。

基本步骤

  1. 为属性确定特征及其隶属函数
  2. 计算隶属度矩阵
  3. 确定评价矩阵,计算权重
  4. 检验评价矩阵
  5. 计算最后得分并排序
  6. 选取前6个

模糊评价模型的基本概念

模糊集和隶属函数

模糊集:我们要排序的事物集合,这里不妨记作A。
特征:为了将A排序,我们自然… Read the rest

Update 2019/07/26:根据读者提出的问题,添加了查找数据方法、时间安排、论文及代码的下载地址等内容。

前言

本文主要是记录这次建模的过程和思路。用到的模型简单提及,并省略数据和结论。

涉及到的最小二乘法、模糊数学模型和马尔科夫链知识可以见我的文章“半小时学习最小二乘法”“模糊评价模型-以2018美赛为例”“马尔科夫链详解(TBC)”。

问题

Problem: A large multinational service company, with offices in New York City in the United States and Shanghai in China, is continuing to expand to become truly international. This company is investigating opening additional international offices and desires to have the employees of each office speak both in English and one or more additional languages. The Chief Operating Officer of… Read the rest

前言

梯度是机器学习中的重要概念,其和拉格朗日乘数法、梯度下降法之间的联系密不可分。所以本文给出了梯度的定义,并证明负梯度的方向是函数下降最快的方向(梯度的方向是函数上升最快的方向)。

至于为什么梯度下降算法能够work,是因为对于凸函数,随着函数下降的方向,一定能到达最小值。取梯度是为了沿最快下降方向,降低迭代次数。后来发现对于非凸函数,梯度下降算法表现不错,所以对于非凸函数也有使用。更具体的内容,见下一篇文章《梯度下降算法》。

本文重点结论

本文有大量证明,部分读者可能会感到有些冗余,故将重点结论罗列于下:
1. 梯度\(
\nabla f\left( {{\theta_1},{\theta_2},\cdots,{\theta_n}} \right) = \left( {\frac{{\partial f}}{{\partial {\theta_1}}},\frac{{\partial f}}{{\partial {\theta_2}}},\cdots,\frac{{\partial f}}{{\partial {\theta_n}}}} \right)
\)
2. 梯度的方向是函数上升最快的方向
3. 梯度是 || … Read the rest

前言

这是我在上学期面试中遇到的一道概率题,现场没做出来,让面试官快速进入算法题环节了= =
今天突然联想到最近在看的内容,一下子顿悟了,开心
其实这道题是语文题

题面

甲认为一道题是对的,且这道题是对的概率为0.9。乙认为一道题是对,且这道题是对的概率为0.8。求甲乙都认为一道题为对,且这道题确实为对的概率?

Note:答案不等于0.72… Read the rest

前言

最小二乘法在统计学的地位不必多言。本文的目的是全面地讲解最小二乘法,打好机器学习的基础。本文主要内容是最小二乘法的思想及在线性回归问题中的应用。后面的系列文章会继续讲解最小二乘的正则化。
至于非线性最小二乘和广义线性模型,如果以后有时间会进行整理。

不熟悉极大似然法的读者可以阅读我的另一篇文章《十分钟学习极大似然估计

updata 2019/6/13:添加了对线性回归问题的矩阵定义和简要介绍,修改了少量句子,修正了公式中的少量错误。

核心思想

最小二乘法是勒让德( A. M. Legendre)于1805年在其著作《计算慧星轨道的新方法》中提出的。它的主要思想就是求解未知参数,使得理论值与观测值之差(即误差,或者说残差)的平方和达到最小:
\[E = \mathop \sum \limits_{i = 1}^n e_i^2 = \mathop \sum \limits_{i = 1}^n {\left( {{y_i} – \hat y} \right)^2}\]
观测值\(y_i\)就是我们的多组样本,理论值\(\hat y\)就是我们的假设拟合函数。目标函数也就是在机器… Read the rest

前言

参数估计是机器学习里面的一个重要主题,而极大似然估计是最传统、使用最广泛的估计方法之一。

本文主要介绍了极大似然估计,简单说明了其和矩估计、贝叶斯估计的异同,其他估计(如MAP)并不涉及。

为什么要用极大似然估计

对于一系列观察数据,我们常常可以找到一个具体分布来描述,但不清楚分布的参数。这时候我们就需要用极大似然估计来求解这个分布的参数。换句话说,极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。

极大似然估计概述

下面结合一个例子介绍极大似然估计法的思想和方法:

设一个袋子中有黑、白两种球,摸到白球的概率为p,现在要估计p的值。
我们令总体X为
\[
X = \left.
\begin{cases}
0,\quad 从袋中取得一白球,\\
1,\quad 从袋中取得一黑球.\\
\end{cases}
\right.
\]
则X服从01分布\(B(1,p)\)。

我们先进行有放回地摸球10次,其结果可用随机变量\(x_i\)表示,则\(x_1,x_2,⋯,x_10\)是… Read the rest

前言

本文简述了离散型分布,阐明了泊松分布的来源,推导出泊松分布的公式,列举了泊松分布常用的情况,总结了泊松分布相关数值。

离散型分布概述

离散型分布包括几何分布、超几何分布、二项分布和泊松分布。其中二项分布和泊松分布最重要。

伯努利试验

对于一个试验(事件),如果重复发生的概率是独立地(上一次的结果不影响这次),那么它是独立试验。特别地,如果这个试验只存在两种结果,则称其为伯努利试验。

随机变量

对于有现实世界意义的数,我们根据意义的不同,将其划分为不同的类,而对于同一类的数,都使用同一个随机变量来称呼。比如,x年x月x日下雨量,我们就可以使用“随机变量X”来称呼;x年x月x日下雨可能性,我们就用“随机变量Y”来称呼。

需要明确的是:

  • 随机变量是一类有相同意义的数,而不是某个数
  • 当使用随机变量作为一个数时,我们需要指定这个随机变量。比如“2017年1月25日下雨量”在数学上才是一个具体的值。
  • 随机变量不一定能用除一一映射以外的方式拟合

几何分布

对于重复n次的伯努利试验,我们可以计算“首次为1是出现在第K次试验”:\({P_k} = p{q^{(k – 1)}}\)
如果一个… Read the rest