0%

ANN&DL

人工智能元年:1956年,美国,达特茅斯会议(用机器模仿人类学习以及其他方面的智能)

参会人员有:约翰·麦卡锡,克劳德·香农等

历史探索:亚里士多德(三段论),帕斯卡(机械计算器),莱布尼兹(微积分,二进制),冯诺依曼(计算机,博弈论),图灵…

简介

  • 传统的AI技术:串行处理,用程序实现,精确计算(模仿左脑)

    ANN技术:并行处理,用人工神经元之间相互作用实现,非精确计算(模拟处理)(模仿右脑)

  • 人工神经网络(Artificial Neural Networks):数学模型

    • 关键点:

      1)信息的分布表示

      2)运算的全局并行与局部操作

      3)处理的非线性特征

    • 对大脑基本特征的模拟:

      1)形式上:神经元机器及其连结

      2)表现特征:信息的存储与处理

    • 学习能力:

      其信息的分布存储提供了容错能力,系统在受到局部损伤时还可以正常工作

      对一类网来说,完成学习后如果再学习新的东西,会破坏原来已经学会的东西

    • 主要领域:

      对大量数据进行分类;

      学习一个复杂的非线性映射;

    • 提出历程:

      1943年,M-P模型(阈值加权和模型)

      1949年,Hebb学习律(神经元之间突出联系是可变的)

      1950-1968(第一高潮期),单级感知器(Perceptron),可用电子线路模拟

      1969-1982(反思期),发现”异或“运算不可表示

      1983-1990(第二高潮期),循环网络,设计研制Hopfield网电路,解决TSP问题,Boltzmann机,BP算法(多层网络)

      1991-2006(再认识与应用研究期)

      2006至今,深度学习,CNN,DBN,深度学习的循环网络

理论基础

人工神经元

  • 具有生物神经元的六个特征

    1)神经元及其联接

    2)连接强度决定信号传递强弱

    3)连接强度可以随训练改变

    4)信号可以刺激/抑制

    5)一个神经元接受的信号的累积效果决定该神经元状态

    6)每个神经元可以有一个阈值

  • 基本构成

ANBase64
[]:

人工神经元模拟生物神经元的一阶特性。
输入:X=(x1,x2,…,xn)
联接权(权重):W=(w1,w2,…,wn)
网络输入:net=Σxiwi
向量形式:net=XW

  • 具体的
    激活函数:o=f(net)
    上层节点的输出和下层(隐层或输出层)节点的输入之间的函数关系,也称激励函数/活化函数
    作用:使深层神经网络的表达能力更强大,而非把输入线性组合再输出
    常见的有Sigmoid函数、TanH函数等
    FNETBase64
    γ>0,为一常数,称为饱和值,为该神经元的最大输出。

M-P模型(也称处理单元):如上结构图

拓扑特性

  • 连接模式
    ”+“:表示传送来的信号起刺激作用,用于增加神经元的活跃度
    ”-“:抑制作用,降低活跃度

    • 层级内联接:加强和完成层内神经元之间的竞争
    • 循环连接:反馈信号
    • 层级间联接:不同层中神经元之间的联接,用来实现层间的信号传递
  • 网络的分层结构

    • 简单单级网

djwBase64

输出层的第j个神经元的网络输入记为netj,netj=x1wij+x2w2j+…+xnwnj
(重点:上述为同一层的输入-输出,而激励函数是上一层的输出-下一层的输入)
即:NET=XW,O=F(NET)

  • 网络的分层结构
    • 单级横向反馈网

hxBse64

NET=XW+OV,O=F(NET)

(主要注意输出层每个神经元多了横向的联接)

  • 网络的分层结构
    • 多级网

DJW2Bse64

最终结果:F3(F2(F1(XW(1))W(2))W(3))

  • 网络的分层结构

    • 循环网

XHWBase64

将输入信号反馈到输出端,输入的原始信号被逐步加强、修复;
反馈信号引起网络输入的不断变化,若这种变化经过循环最后可消失,则称网络达到了平衡状态,该网络是稳定的;若不能消失,则称该网络是不稳定的

  • 层次划分

    信号只被允许从低层流到高层;

输入层:为第0层,负责接收来自网络外部的信息;
隐藏层:输入层与输出层之间,不直接接受和发送信号;
输出层:具有该网络的最大信号,输出网络计算结果

​ 输出层的层号为该网络的层数(称为n层或n级网络);
​ 第j-1到j层的连接矩阵称为第j层连接矩阵,输出层对应的矩阵称输出层连接矩阵;
​ 用W(j)表示第j层矩阵

EXP_B10g

*在3.3写下第一篇T3CH文章!!

本篇作为一篇实际上一点也不硬的技术博客,简单记录一下笔者博客发展的小小问题、经验。

前言:本人博客目前的搭建方式是Github.io+Hexo,主题选用Next

快捷方式

为了防止以后更新博客的时候忘记怎么快速操作,先简单码住本人(不具有普适性)博客基本操作的详细方式。

更新博文

在根目录的source目录下的_posts目录中右键GIT BASH,输入”hexo new ‘标题’ “即可。之后用管理员身份打开md编辑器,打开刚刚创建的文件,撰写博客即可。

文章前面的代码块中,注意写分类的时候格式为:(不要忘记空格)

1
2
categories:
- 类别名

写完后在根目录下GIT BASH,进行hexo三件套(hexo clean,hexo g(enarate),hexo d(eploy))即可

三件套运行成功后,进入自己github的博客项目,Settings-Pages-Custom domain中,输入自己的博客网址(例如我的adauniverse.com)并保存

当上面显示Last deployed为一分钟前或now之类,且显示”Your site is live at 你的网址“说明此次部署成功,更新博客网页即可。

注:

  1. 不可直接以管理员身份创建md文件另存为到目录下,这样部署不上去;
  2. 最后一步hexo三件套时,如果其他步骤无问题,部署出现问题,删除根目录下刚生成的.deploy_git文件夹,再次生成即可;
  3. 在github页面中保存更新时,建议开梯子,且很可能要保存多次你的网址并使其DNS检查多次,故建议先复制好网址,免得之后每次都要再打一遍。

个性化

根目录themes目录掌控着主要的个性化内容。个人头像、动态效果、背景样式等都在该目录下进行调整。具体的操作等有空细写。

W1T3R

不知道从什么时候坚定地喜欢冬天。小学的时候老师布置作文,题目是《最喜欢的季节》,写的就是冬天;后来直到现在,他人问起最喜欢的季节,依然会毫不犹豫地说是冬天。也会很期待雪,虽然说起来那些兴奋根本不知道到底源于什么——明明也见过很多次雪了,也知道冬天冷得要命。

2024年的冬天也是这样的冷。北方吹的寒冷的大风,南风下的难得的冻雨,也全被我收入囊中了。而在当下这样已经过了雨水节气的冬天,我又常常期盼春夏快些来到。

高中时候和朋友聊天,我不止一次谈到感觉冬天的自己的心脏好像被冻住了一样。当时在事实上并没有那么冷的、并不宽敞的校园里,为数不多的闲暇时光,和朋友相伴谈话——大抵也没谈多久;但现在回想,却觉得旁边好像空无一人,只有我和她,而好像也谈了很久很久,一直走啊走,场景既模糊又生动。”感觉自己变得很冷漠,对什么都提不起兴趣,“我如是说,”或许是冬天太冷的原因吧,感觉再也找不到曾经鲜活的自己了,很害怕。“她似乎还说我们做到的一篇英语语法填空里有提到这个,说科学证明了冬天人的情感的确不怎么激烈生动云云。具体的字眼却已记不太清。

樱花大道上所有的树都瘦得像濒死的老人。我拥有大堆空闲时光。而我也不知道我现在到底是心理冷漠状态还是鲜活状态,抑或啥也不是。说来奇怪,紧张的时光里我更喜欢想得更多,而空闲的时光里我反而想的更少。或者可能只是想的东西不同吧。他们说,”痛苦的环境能诞生伟大的作品“。现在看来,我之前的作品还真伟大。

之前似乎也不会去想冬天何时结束。现在却常常看着天气,想着何时升温。不过想的多或者少又有什么关系呢,人本来就会活得时而肤浅时而深沉,而我本来也是这样的人。想来深沉的我也不应该嘲笑肤浅的我,什么会真的让自己开心我应当是一直知道的。想得太多有时候也不是什么好事。(但想得太少总归是个坏事。)春天总是会来的。

he110_w0r1d

耗时半盒海苔饼干+半包黄瓜薯片,博客搭建完成!!!