百度百科:人工智能是“研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学”,我们将其视为计算机科学的一个分支,其研究领域包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
- 符号主义
符号主义认为人类思维的基本单位是符号,而基于符号的一系列运算构成了认知过程,因此人和计算机都可以被看成具备逻辑推理能力的符号系统。换句话说,计算机可以通过各种符号运算来模拟人的“智能”。
1、“逻辑理论家”程序(Simon,1965)
2、归结原理(Robinson,1965)
3、DENDRAL专家系统(Feigenbaum,1965)
4、知识工程(Feigenbaum,1977)
5、“深蓝”电脑系统(IBM,1977) - 连接主义
连接主义,又称仿生学派或生理学派。是一种基于神经网络和网络空间的连接机制的智能模拟方法。强调对人类的大脑直接模拟,特别是神经元之间的连接机制模拟。
1、形式化神经元模型(McCulloch,1943)
2、感知器(Rosenbalatt,1957)
3、反向传播法(Rumelhart,1986)
4、卷积神经网络(Waibel,1987) - 行为主义
行为主义又称进化主义或控制论学派,是一种基于“感知—行为”的行为智能模拟方法,其思想来源是进化论和控制论,基本原理为控制论以及感知–动作型控制系统。
1、六足机器人(MIT,1990)
2、ATHLETE机器人(NASA4,2009)
3、AlphaFold2(Google,2020)
致力于研究如何通过计算机手段使机器模拟或实现人类的学习方式,以获取新的知识或技能,同时对已有的知识进行重组,以此来不断提高自身的学习效率和性能。
计算机通过输入大量的数据(训练集)进行训练建模,模型学习到数据的潜在分布规律,再对新输入的数据集(测试集)进行分类或预测。
训练集:用于构建模型的数据样本。
测试集:用来评估模型泛化能力的数据样本。
验证集:用于调整模型的超参数或对模型的泛化能力进行初步评估。
- 监督学习
- 线性回归
- 逻辑回归
- 感知机
- 支持向量机
- 决策树
- 无监督学习
- K-means
- 主成分分析
- 弱监督学习
- 主动学习
- 半监督学习
- 迁移学习
- 多示例学习
监督学习,顾名思义,需要学习的数据集是有标签的,是指利用已知标签的样本去调整学习算法的参数,使之达到所要求性能的过程。根据数据集标签是连续还是离散,又可分为回归问题(连续)或分类问题(离散)。
线性回归
通过对样本特征进行线性组合进行预测,能够直观的体现数据样本中各个特征对预测结果的影响。给定一个具有个特征样本,其线性组合函数可通过以下公式表达:
其中;为偏置。和为线性回归模型在有监督训练过程中需要学习的参数,一旦确定,线性回归模型也随之确定。
在机器学习任务中,通常使用损失函数来引导参数的学习或更新。损失函数是用于衡量预测值与真实值之间的误差的函数,是评估模型预测结果好坏的重要指标。 线性回归中最常用的损失函数为均方误差,优化目标是驱动模型学习到一组期望的参数,使样本的均方误差最小。
逻辑回归
逻辑回归是用于解决分类问题的线性模型。它是线性回归引入一个非线性的决策函数(也称激活函数)来构建模型的连续实数输出与分类标签的离散值联系。
感知机
感知机是一种经典的神经网络架构,是一种简单的二分类线性模型。感知机是对生物神经元的一种简单数学模型,其中输入对应树突,权重对应突触,偏置对应阈值,激活函数对应细胞体,输出对应轴突。其表达式如下:
其中表示预测目标的值,为可学习的权重向量;为输入特征;为符号函数,这里用作激活函数。
支持向量机(SVM)
最早用于解决二分类问题,经不断改进,现成功应用于很多领域。核心概念是最大化分类间隔。
决策树
用于解决分类和回归问题,构建过程遵循简单且直观的“分而治之”学习策略。具有分类速度快、可读性好优点。
样本数据没有标签的一种学习方法,目标是对无标签的样本进行学习,来发现数据内在的性质和规律,通常基于相似样本在数据空间中一般距离较近这一假设,将样本判定为不同类别。无监督学习可以解决的问题有:关联分析、聚类问题、降维分析。
K-均值算法(K-means)
一种迭代求解的聚类分析算法,目标是将训练样本划分成k个不同的簇,其每个簇的中心采用簇中所含值的均值计算而成。
主成分分析(PCA)
一种线性降维方法,目标是通过某种线性投影(线性变换),讲高维的数据特征空间映射到低维的数据特征空间中。
其用于训练模型的数据是有限的、含噪声的或者标注不准确的。由于缺少有效的监督信息,因此期望机器学习技术能够在弱监督情况下能主动学习有效的数据特征表述。
主动学习
主动学习假设可以从未标记的实例中查询真是标签。给定少量有标记数据和大量未标记数据时,主动学习的总体思路是通过机器学习记得方法获取到那些比较“难”分类的样本数据,用人工方式进行标注,然后将人工标注的数据再次进行训练,提高性能模型。
半监督学习
在少量有标记数据和大量未标记数据的情形下,模型在训练的时候有一部分是有标签的,而有一部分是没有标签的。
迁移学习
目标任务的训练数据较少,而有一个相关任务有大量的训练数据,虽然两类训练数据的分布不同,目标任务也不同,但在相关任务中可以学习某些可以泛化的知识,这些知识对目标任务有帮助。在这样的场景下,如何将相关任务的可泛化知识迁移到目标任务上,就是迁移学习要解决的问题。
深度学习是机器学习的一个子研究方向,其主要目标是通过构建一定“深度”的模型。从而可以从数据中自动学习到有效的特征表示(一般有三种特征表示:底层特征、中层特征、高层特征),克服传统机器学习过于依赖特征工程的缺陷,实现端到端学习。
深度 主要体现为对原始数据进行非线性特征转换的次数。
研究发展方向有:
- 前向神经网络模型
- 卷积神经网络
- 注意力机制
- 生成模型:无监督学习方法,核心思想是使用极大似然法求解数据分布与模型分布之间的距离。
- 生成对抗网络(DCGAN、WGAN、BigGAN)等。
- 序列模型:一般指自循环的神经网络算法。
- 循环神经网络(LSTM、RNN)等。
人工神经网络是对人脑神经网络进行抽象,有多个节点(人工神经元)互相连接而成,能够对数据之间的复杂关系进行建模。
激活函数
sigmoid 、 tanh 、 ReLU 、 Leaky ReLU 、 GELU 、 swish
损失函数(计算误差大小)
交叉熵损失函数、Dice损失函数、均方误差损失函数
梯度下降和反向传播法
自监督学习:一类将无监督学习转化为监督学习的算法。
可解释性深度学习
模型可解释性是指模型以可理解的术语向人类解释或展示能力。
对抗攻击与防御
对抗样本:由不易察觉的噪声扰动的输入样本,它可以欺骗模型使其输出不正确的结果。
对抗攻击:利用某种方法生成对抗样本以欺骗模型。
对抗防御:让模型免疫对抗样本,在对抗攻击的条件下也能得到正确的结果
超大规模模型
GPT-3、悟道2.0、“华智冰”
动态规划
蒙特卡罗法
时序差分法
深度Q网络
Numpy
一个由多维数组对象和处理这些数组的函数集合组成的库。
Pandas
基于Numpy,简单直观的处理关系型数据。
Scikit-Learn
机器学习库,实现了各种常用的机器学习算法。
Scipy
提高便捷且高效的高维数组操作,实现了机器学习中更加偏向底层原理的算法和优化算法
TensorFlow(深度学习、机器学习,对开发语言支持全面)
PyTorch(训练神经网络的深度学习平台)
飞桨(百度的深度学习平台)
到此这篇sigmoid函数用于(Sigmoid函数用于感知机)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/haskellbc/15176.html