| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 人工神经元算法视频教学人工智能神经网络算法 -> 正文阅读 |
|
[人工智能]人工神经元算法视频教学人工智能神经网络算法 |
什么是人工神经元算法人工神经网络算法 “人工神经网络”(ARTIFICIAL NEURAL NETWORK,简称ANN)是在对人脑组织结构和运行机制的认识理解基础之上模拟其结构和智能行为的一种工程系统。 早在本世纪40年代初期,心理学家McCulloch、数学家Pitts就提出了人工神经网络的第一个数学模型,从此开创了神经科学理论的研究时代。 其后,F Rosenblatt、Widrow和J. J .Hopfield等学者又先后提出了感知模型,使得人工神经网络技术得以蓬勃发展。 神经系统的基本构造是神经元(神经细胞),它是处理人体内各部分之间相互信息传递的基本单元。据神经生物学家研究的结果表明,人的一个大脑一般有1010~1011个神经元。 每个神经元都由一个细胞体,一个连接其他神经元的轴突和一些向外伸出的其它较短分支——树突组成。轴突的功能是将本神经元的输出信号(兴奋)传递给别的神经元。 其末端的许多神经末梢使得兴奋可以同时传送给多个神经元。树突的功能是接受来自其它神经元的兴奋。 神经元细胞体将接受到的所有信号进行简单处理(如:加权求和,即对所有的输入信号都加以考虑且对每个信号的重视程度——体现在权值上——有所不同)后由轴突输出。 神经元的树突与另外的神经元的神经末梢相连的部分称为突触。 谷歌人工智能写作项目:神经网络伪原创 BP人工神经网络方法(一)方法原理人工神经网络是由大量的类似人脑神经元的简单处理单元广泛地相互连接而成的复杂的网络系统写作猫。理论和实践表明,在信息处理方面,神经网络方法比传统模式识别方法更具有优势。 人工神经元是神经网络的基本处理单元,其接收的信息为x1,x2,…,xn,而ωij表示第i个神经元到第j个神经元的连接强度或称权重。 神经元的输入是接收信息X=(x1,x2,…,xn)与权重W={ωij}的点积,将输入与设定的某一阈值作比较,再经过某种神经元激活函数f的作用,便得到该神经元的输出Oi。 常见的激活函数为Sigmoid型。 人工神经元的输入与输出的关系为地球物理勘探概论式中:xi为第i个输入元素,即n维输入矢量X的第i个分量;ωi为第i个输入与处理单元间的互联权重;θ为处理单元的内部阈值;y为处理单元的输出。 常用的人工神经网络是BP网络,它由输入层、隐含层和输出层三部分组成。BP算法是一种有监督的模式识别方法,包括学习和识别两部分,其中学习过程又可分为正向传播和反向传播两部分。 正向传播开始时,对所有的连接权值置随机数作为初值,选取模式集的任一模式作为输入,转向隐含层处理,并在输出层得到该模式对应的输出值。每一层神经元状态只影响下一层神经元状态。 此时,输出值一般与期望值存在较大的误差,需要通过误差反向传递过程,计算模式的各层神经元权值的变化量 。这个过程不断重复,直至完成对该模式集所有模式的计算,产生这一轮训练值的变化量Δωij。 在修正网络中各种神经元的权值后,网络重新按照正向传播方式得到输出。实际输出值与期望值之间的误差可以导致新一轮的权值修正。正向传播与反向传播过程循环往复,直到网络收敛,得到网络收敛后的互联权值和阈值。 (二)BP神经网络计算步骤(1)初始化连接权值和阈值为一小的随机值,即W(0)=任意值,θ(0)=任意值。(2)输入一个样本X。 (3)正向传播,计算实际输出,即根据输入样本值、互联权值和阈值,计算样本的实际输出。 其中输入层的输出等于输入样本值,隐含层和输出层的输入为地球物理勘探概论输出为地球物理勘探概论式中:f为阈值逻辑函数,一般取Sigmoid函数,即地球物理勘探概论式中:θj表示阈值或偏置;θ0的作用是调节Sigmoid函数的形状。 较小的θ0将使Sigmoid函数逼近于阈值逻辑单元的特征,较大的θ0将导致Sigmoid函数变平缓,一般取θ0=1。 (4)计算实际输出与理想输出的误差地球物理勘探概论式中:tpk为理想输出;Opk为实际输出;p为样本号;k为输出节点号。 (5)误差反向传播,修改权值地球物理勘探概论式中:地球物理勘探概论地球物理勘探概论(6)判断收敛。若误差小于给定值,则结束,否则转向步骤(2)。 (三)塔北雅克拉地区BP神经网络预测实例以塔北雅克拉地区S4井为已知样本,取氧化还原电位,放射性元素Rn、Th、Tc、U、K和地震反射 构造面等7个特征为识别的依据。 构造面反映了局部构造的起伏变化,其局部隆起部位应是油气运移和富集的有利部位,它可以作为判断含油气性的诸种因素之一。 在该地区投入了高精度重磁、土壤微磁、频谱激电等多种方法,一些参数未入选为判别的特征参数,是因为某些参数是相关的。 在使用神经网络方法判别之前,还采用K-L变换(Karhaem-Loeve)来分析和提取特征。S4井位于测区西南部5线25点,是区内唯一已知井。 该井在5390.6m的侏罗系地层获得40.6m厚的油气层,在5482m深的震旦系地层中获58m厚的油气层。 取S4井周围9个点,即4~6线的23~25 点作为已知油气的训练样本;由于区内没有未见油的钻井,只好根据地质资料分析,选取14~16线的55~57点作为非油气的训练样本。 BP网络学习迭代17174次,总误差为0.0001,学习效果相当满意。以学习后的网络进行识别,得出结果如图6-2-4所示。 图6-2-4 塔北雅克拉地区BP神经网络聚类结果(据刘天佑等,1997)由图6-2-4可见,由预测值大于0.9可得5个大封闭圈远景区,其中测区南部①号远景区对应着已知油井S4井;②、③号油气远景区位于地震勘探所查明的托库1、2号构造,该两个构造位于沙雅隆起的东段,其西段即为1984年钻遇高产油气流的Sch2井,应是含油气性好的远景区;④、⑤号远景区位于大涝坝构造,是yh油田的组成部分。 神经网络算法的人工神经网络人工神经网络(Artificial Neural Networks,ANN)系统是 20 世纪 40 年代后出现的。 它是由众多的神经元可调的连接权值连接而成,具有大规模并行处理、分布式信 息存储、良好的自组织自学习能力等特点。 BP(Back Propagation)算法又称为误差 反向传播算法,是人工神经网络中的一种监督式的学习算法。 BP 神经网络算法在理 论上可以逼近任意函数,基本的结构由非线性变化单元组成,具有很强的非线性映射能力。 而且网络的中间层数、各层的处理单元数及网络的学习系数等参数可根据具体情况设定,灵活性很大,在优化、信号处理与模式识别、智能控制、故障诊断等许 多领域都有着广泛的应用前景。 人工神经元的研究起源于脑神经元学说。19世纪末,在生物、生理学领域,Waldeger等人创建了神经元学说。人们认识到复杂的神经系统是由数目繁多的神经元组合而成。 大脑皮层包括有100亿个以上的神经元,每立方毫米约有数万个,它们互相联结形成神经网络,通过感觉器官和神经接受来自身体内外的各种信息,传递至中枢神经系统内,经过对信息的分析和综合,再通过运动神经发出控制信息,以此来实现机体与内外环境的联系,协调全身的各种机能活动。 神经元也和其他类型的细胞一样,包括有细胞膜、细胞质和细胞核。但是神经细胞的形态比较特殊,具有许多突起,因此又分为细胞体、轴突和树突三部分。细胞体内有细胞核,突起的作用是传递信息。 树突是作为引入输入信号的突起,而轴突是作为输出端的突起,它只有一个。树突是细胞体的延伸部分,它由细胞体发出后逐渐变细,全长各部位都可与其他神经元的轴突末梢相互联系,形成所谓“突触”。 在突触处两神经元并未连通,它只是发生信息传递功能的结合部,联系界面之间间隙约为(15~50)×10米。突触可分为兴奋性与抑制性两种类型,它相应于神经元之间耦合的极性。 每个神经元的突触数目正常,最高可达10个。各神经元之间的连接强度和极性有所不同,并且都可调整、基于这一特性,人脑具有存储信息的功能。利用大量神经元相互联接组成人工神经网络可显示出人的大脑的某些特征。 人工神经网络是由大量的简单基本元件——神经元相互联接而成的自适应非线性动态系统。每个神经元的结构和功能比较简单,但大量神经元组合产生的系统行为却非常复杂。 人工神经网络反映了人脑功能的若干基本特性,但并非生物系统的逼真描述,只是某种模仿、简化和抽象。 与数字计算机比较,人工神经网络在构成原理和功能特点等方面更加接近人脑,它不是按给定的程序一步一步地执行运算,而是能够自身适应环境、总结规律、完成某种运算、识别或过程控制。 人工神经网络首先要以一定的学习准则进行学习,然后才能工作。现以人工神经网络对于写“A”、“B”两个字母的识别为例进行说明,规定当“A”输入网络时,应该输出“1”,而当输入为“B”时,输出为“0”。 所以网络学习的准则应该是:如果网络作出错误的的判决,则通过网络的学习,应使得网络减少下次犯同样错误的可能性。 首先,给网络的各连接权值赋予(0,1)区间内的随机值,将“A”所对应的图象模式输入给网络,网络将输入模式加权求和、与门限比较、再进行非线性运算,得到网络的输出。 在此情况下,网络输出为“1”和“0”的概率各为50%,也就是说是完全随机的。这时如果输出为“1”(结果正确),则使连接权值增大,以便使网络再次遇到“A”模式输入时,仍然能作出正确的判断。 如果输出为“0”(即结果错误),则把网络连接权值朝着减小综合输入加权值的方向调整,其目的在于使网络下次再遇到“A”模式输入时,减小犯同样错误的可能性。 如此操作调整,当给网络轮番输入若干个手写字母“A”、“B”后,经过网络按以上学习方法进行若干次学习后,网络判断的正确率将大大提高。 这说明网络对这两个模式的学习已经获得了成功,它已将这两个模式分布地记忆在网络的各个连接权值上。当网络再次遇到其中任何一个模式时,能够作出迅速、准确的判断和识别。 一般说来,网络中所含的神经元个数越多,则它能记忆、识别的模式也就越多。 (1)人类大脑有很强的自适应与自组织特性,后天的学习与训练可以开发许多各具特色的活动功能。 如盲人的听觉和触觉非常灵敏;聋哑人善于运用手势;训练有素的运动员可以表现出非凡的运动技巧等等。普通计算机的功能取决于程序中给出的知识和能力。显然,对于智能活动要通过总结编制程序将十分困难。 人工神经网络也具有初步的自适应与自组织能力。在学习或训练过程中改变突触权重值,以适应周围环境的要求。同一网络因学习方式及内容不同可具有不同的功能。 人工神经网络是一个具有学习能力的系统,可以发展知识,以致超过设计者原有的知识水平。 通常,它的学习训练方式可分为两种,一种是有监督或称有导师的学习,这时利用给定的样本标准进行分类或模仿;另一种是无监督学习或称无为导师学习,这时,只规定学习方式或某些规则,则具体的学习内容随系统所处环境 (即输入信号情况)而异,系统可以自动发现环境特征和规律性,具有更近似人脑的功能。 (2)泛化能力泛化能力指对没有训练过的样本,有很好的预测能力和控制能力。特别是,当存在一些有噪声的样本,网络具备很好的预测能力。 (3)非线性映射能力当对系统对于设计人员来说,很透彻或者很清楚时,则一般利用数值分析,偏微分方程等数学工具建立精确的数学模型,但当对系统很复杂,或者系统未知,系统信息量很少时,建立精确的数学模型很困难时,神经网络的非线性映射能力则表现出优势,因为它不需要对系统进行透彻的了解,但是同时能达到输入与输出的映射关系,这就大大简化设计的难度。 (4)高度并行性并行性具有一定的争议性。承认具有并行性理由:神经网络是根据人的大脑而抽象出来的数学模型,由于人可以同时做一些事,所以从功能的模拟角度上看,神经网络也应具备很强的并行性。 多少年以来,人们从医学、生物学、生理学、哲学、信息学、计算机科学、认知学、组织协同学等各个角度企图认识并解答上述问题。 在寻找上述问题答案的研究过程中,这些年来逐渐形成了一个新兴的多学科交叉技术领域,称之为“神经网络”。神经网络的研究涉及众多学科领域,这些领域互相结合、相互渗透并相互推动。 不同领域的科学家又从各自学科的兴趣与特色出发,提出不同的问题,从不同的角度进行研究。 下面将人工神经网络与通用的计算机工作特点来对比一下:若从速度的角度出发,人脑神经元之间传递信息的速度要远低于计算机,前者为毫秒量级,而后者的频率往往可达几百兆赫。 但是,由于人脑是一个大规模并行与串行组合处理系统,因而,在许多问题上可以作出快速判断、决策和处理,其速度则远高于串行结构的普通计算机。 人工神经网络的基本结构模仿人脑,具有并行处理特征,可以大大提高工作速度。人脑存贮信息的特点为利用突触效能的变化来调整存贮内容,也即信息存贮在神经元之间连接强度的分布上,存贮区与计算机区合为一体。 虽然人脑每日有大量神经细胞死亡 (平均每小时约一千个),但不影响大脑的正常思维活动。 普通计算机是具有相互独立的存贮器和运算器,知识存贮与数据运算互不相关,只有通过人编出的程序使之沟通,这种沟通不能超越程序编制者的预想。元器件的局部损坏及程序中的微小错误都可能引起严重的失常。 心理学家和认知科学家研究神经网络的目的在于探索人脑加工、储存和搜索信息的机制,弄清人脑功能的机理,建立人类认知过程的微结构理论。 生物学、医学、脑科学专家试图通过神经网络的研究推动脑科学向定量、精确和理论化体系发展,同时也寄希望于临床医学的新突破;信息处理和计算机科学家研究这一问题的目的在于寻求新的途径以解决不能解决或解决起来有极大困难的大量问题,构造更加逼近人脑功能的新一代计算机。 人工神经网络早期的研究工作应追溯至上世纪40年代。下面以时间顺序,以著名的人物或某一方面突出的研究成果为线索,简要介绍人工神经网络的发展历史。 1943年,心理学家W·Mcculloch和数理逻辑学家W·Pitts在分析、总结神经元基本特性的基础上首先提出神经元的数学模型。此模型沿用至今,并且直接影响着这一领域研究的进展。 因而,他们两人可称为人工神经网络研究的先驱。1945年冯·诺依曼领导的设计小组试制成功存储程序式电子计算机,标志着电子计算机时代的开始。 1948年,他在研究工作中比较了人脑结构与存储程序式计算机的根本区别,提出了以简单神经元构成的再生自动机网络结构。 但是,由于指令存储式计算机技术的发展非常迅速,迫使他放弃了神经网络研究的新途径,继续投身于指令存储式计算机技术的研究,并在此领域作出了巨大贡献。 虽然,冯·诺依曼的名字是与普通计算机联系在一起的,但他也是人工神经网络研究的先驱之一。50年代末,F·Rosenblatt设计制作了“感知机”,它是一种多层的神经网络。 这项工作首次把人工神经网络的研究从理论探讨付诸工程实践。当时,世界上许多实验室仿效制作感知机,分别应用于文字识别、声音识别、声纳信号识别以及学习记忆问题的研究。 然而,这次人工神经网络的研究高潮未能持续很久,许多人陆续放弃了这方面的研究工作,这是因为当时数字计算机的发展处于全盛时期,许多人误以为数字计算机可以解决人工智能、模式识别、专家系统等方面的一切问题,使感知机的工作得不到重视;其次,当时的电子技术工艺水平比较落后,主要的元件是电子管或晶体管,利用它们制作的神经网络体积庞大,价格昂贵,要制作在规模上与真实的神经网络相似是完全不可能的;另外,在1968年一本名为《感知机》的著作中指出线性感知机功能是有限的,它不能解决如异感这样的基本问题,而且多层网络还不能找到有效的计算方法,这些论点促使大批研究人员对于人工神经网络的前景失去信心。 60年代末期,人工神经网络的研究进入了低潮。另外,在60年代初期,Widrow提出了自适应线性元件网络,这是一种连续取值的线性加权求和阈值网络。后来,在此基础上发展了非线性多层自适应网络。 当时,这些工作虽未标出神经网络的名称,而实际上就是一种人工神经网络模型。随着人们对感知机兴趣的衰退,神经网络的研究沉寂了相当长的时间。 80年代初期,模拟与数字混合的超大规模集成电路制作技术提高到新的水平,完全付诸实用化,此外,数字计算机的发展在若干应用领域遇到困难。这一背景预示,向人工神经网络寻求出路的时机已经成熟。 美国的物理学家Hopfield于1982年和1984年在美国科学院院刊上发表了两篇关于人工神经网络研究的论文,引起了巨大的反响。人们重新认识到神经网络的威力以及付诸应用的现实性。 随即,一大批学者和研究人员围绕着 Hopfield提出的方法展开了进一步的工作,形成了80年代中期以来人工神经网络的研究热潮。 1985年,Ackley、Hinton和Sejnowski将模拟退火算法应用到神经网络训练中,提出了Boltzmann机,该算法具有逃离极值的优点,但是训练时间需要很长。 1986年,Rumelhart、Hinton和Williams提出了多层前馈神经网络的学习算法,即BP算法。它从证明的角度推导算法的正确性,是学习算法有理论依据。从学习算法角度上看,是一个很大的进步。 1988年,Broomhead和Lowe第一次提出了径向基网络:RBF网络。总体来说,神经网络经历了从高潮到低谷,再到高潮的阶段,充满曲折的过程。 基因算法 人工神经元网络 matlab 20你给出了遗传算法的MATLAB程序(Genetic Agorithm),最好别叫它为基因算法,这不是标准翻译。 程序里有遗传算法完整的过程(选择、交叉、变异、计算适应度值,目标就是要fitness=8/sum(error.^2)最大,那么sum(error.^2)也就是均方误差最小,这也实现了训练的目的。 看来这个程序只是用遗传算法代替了传统的误差反射传播算法,以均方误差最小作为收敛条件。这不是真正的遗传算法和人工神经网络相结合。有一种模式是用遗传算法来调整网络的连接权值。 神经网络算法原理4.2.1 概述人工神经网络的研究与计算机的研究几乎是同步发展的。 1943年心理学家McCulloch和数学家Pitts合作提出了形式神经元的数学模型,20世纪50年代末,Rosenblatt提出了感知器模型,1982年,Hopfiled引入了能量函数的概念提出了神经网络的一种数学模型,1986年,Rumelhart及LeCun等学者提出了多层感知器的反向传播算法等。 神经网络技术在众多研究者的努力下,理论上日趋完善,算法种类不断增加。目前,有关神经网络的理论研究成果很多,出版了不少有关基础理论的著作,并且现在仍是全球非线性科学研究的热点之一。 神经网络是一种通过模拟人的大脑神经结构去实现人脑智能活动功能的信息处理系统,它具有人脑的基本功能,但又不是人脑的真实写照。它是人脑的一种抽象、简化和模拟模型,故称之为人工神经网络(边肇祺,2000)。 人工神经元是神经网络的节点,是神经网络的最重要组成部分之一。目前,有关神经元的模型种类繁多,最常用最简单的模型是由阈值函数、Sigmoid 函数构成的模型(图 4-3)。 图4-3 人工神经元与两种常见的输出函数神经网络学习及识别方法最初是借鉴人脑神经元的学习识别过程提出的。 输入参数好比神经元接收信号,通过一定的权值(相当于刺激神经兴奋的强度)与神经元相连,这一过程有些类似于多元线性回归,但模拟的非线性特征是通过下一步骤体现的,即通过设定一阈值(神经元兴奋极限)来确定神经元的兴奋模式,经输出运算得到输出结果。 经过大量样本进入网络系统学习训练之后,连接输入信号与神经元之间的权值达到稳定并可最大限度地符合已经经过训练的学习样本。 在被确认网络结构的合理性和学习效果的高精度之后,将待预测样本输入参数代入网络,达到参数预测的目的。 4.2.2 反向传播算法(BP法)发展到目前为止,神经网络模型不下十几种,如前馈神经网络、感知器、Hopfiled 网络、径向基函数网络、反向传播算法(BP法)等,但在储层参数反演方面,目前比较成熟比较流行的网络类型是误差反向传播神经网络(BP-ANN)。 BP网络是在前馈神经网络的基础上发展起来的,始终有一个输入层(它包含的节点对应于每个输入变量)和一个输出层(它包含的节点对应于每个输出值),以及至少有一个具有任意节点数的隐含层(又称中间层)。 在 BP-ANN中,相邻层的节点通过一个任意初始权值全部相连,但同一层内各节点间互不相连。 对于 BP-ANN,隐含层和输出层节点的基函数必须是连续的、单调递增的,当输入趋于正或负无穷大时,它应该接近于某一固定值,也就是说,基函数为“S”型(Kosko,1992)。 BP-ANN 的训练是一个监督学习过程,涉及两个数据集,即训练数据集和监督数据集。 给网络的输入层提供一组输入信息,使其通过网络而在输出层上产生逼近期望输出的过程,称之为网络的学习,或称对网络进行训练,实现这一步骤的方法则称为学习算法。 BP网络的学习过程包括两个阶段:第一个阶段是正向过程,将输入变量通过输入层经隐层逐层计算各单元的输出值;第二阶段是反向传播过程,由输出误差逐层向前算出隐层各单元的误差,并用此误差修正前层权值。 误差信息通过网络反向传播,遵循误差逐步降低的原则来调整权值,直到达到满意的输出为止。 网络经过学习以后,一组合适的、稳定的权值连接权被固定下来,将待预测样本作为输入层参数,网络经过向前传播便可以得到输出结果,这就是网络的预测。 反向传播算法主要步骤如下:首先选定权系数初始值,然后重复下述过程直至收敛(对各样本依次计算)。 (1)从前向后各层计算各单元Oj储层特征研究与预测(2)对输出层计算δj储层特征研究与预测(3)从后向前计算各隐层δj储层特征研究与预测(4)计算并保存各权值修正量储层特征研究与预测(5)修正权值储层特征研究与预测以上算法是对每个样本作权值修正,也可以对各个样本计算δj后求和,按总误差修正权值。 什么叫神经元神经元节点信息计算方法隐层节点数在BP网络中,隐层节点数的选择非常重要,不仅对建立的神经网络模型的性能影响很大,而且是训练时出现“过拟合”的直接原因,但是目前理论上还没有一种科学的和普遍的确定方法。 神经元之间联系的基本方式是形成突触,突触由突触前膜、突触间隙和突触后膜构成,突触前膜内侧有大量线粒体和囊泡,不同类型突触所含囊泡的形态、大小及递质均不同。突触后膜上有递质作用的受体。 扩展资料:神经元也和其他类型的细胞一样,包括有细胞膜、细胞质和细胞核。但是神经细胞的形态比较特殊,具有许多突起,因此又分为细胞体、轴突和树突三部分。细胞体内有细胞核,突起的作用是传递信息。 树突是作为引入输入信号的突起,而轴突是作为输出端的突起,它只有一个。人工神经网络反映了人脑功能的若干基本特性,但并非生物系统的逼真描述,只是某种模仿、简化和抽象。 与数字计算机比较,人工神经网络在构成原理和功能特点等方面更加接近人脑,它不是按给定的程序一步一步地执行运算,而是能够自身适应环境、总结规律、完成某种运算、识别或过程控制。 参考资料来源:百度百科-神经网络算法。 人工智能学习掌握难度大吗?人工智能学习掌握难度大,需要参加专业的培训机构进行学习。如需学习人工智能推荐选择【达内教育】,该机构每一门课程的师资水平在行业内都首屈一指,借独创的远程同步教学模式。 学习人工智能主要内容如下:1、知识表示是人工智能的基本问题之一,推理和搜索都与表示方法密切相关。常用的知识表示方法有:逻辑表示法、产生式表示法和框架表示法等。 2、搜索是人工智能的一种问题求解方法,搜索策略决定着问题求解的一个推理步骤中知识被使用的优先关系。可分为无信息导引的盲目搜索和利用经验知识导引的启发式搜索。3、机器学习是人工智能的另一重要课题。 机器学习是指在一定的知识表示意义下获取新知识的过程,按照学习机制的不同,主要有归纳学习、分析学习和遗传学习等。 感兴趣的话点击此处,免费学习一下想了解更多有关学习人工智能的相关信息,推荐咨询【达内教育】。 该机构是引领行业的职业教育公司,致力于面向IT互联网行业培养人才,达内大型T专场招聘会每年定期举行,为学员搭建快捷高效的双选绿色通道,在提升学员的面试能力、积累面试经验同时也帮助不同技术方向的达内学员快速就业。 达内IT培训机构,试听名额限时抢购。 IC电子产品的生产流程,关键的生产工序?我门在设计电子产品的过程一般都会对所设计的产品进行成本控制,总是尽量简化电路,减少元器件、尽量简化安装工序。一般这些简化都是针对最终产品的。但是作为开发工作本身也同样需要成本,也需要进行成本控制。 尤其是一些产量小、附加值高的非消费类产品。 电子产品的开发成本一般包括以下这么几块: 1. 项目可行性分析费用 2. 联系元器件厂商,获取器件资料费用 3. 元器件费用 4. 开发人员薪资 5. 样机测试费用 6. 时间成本 以上几个点的成本控制和管理在很多工程管理的书籍和资料都有详细介绍,本文只是根据笔者所做过的电子设计工程补充一些看法。 进入项目可行性分析阶段后,项目管理人员应该仔细做好项目规划工作,一个项目的成功与否,一般取决于该项目的技术复杂性和成本复杂性。 为了避免由于不可预知的工程复杂性而导致的项目流产,项目管理人员在制定设计方案的时候需要招集各方面的人员,把该项目仔细的分解开来,然后针对这些子项目逐一探讨分析,仔细地权衡各方面因素,看看是否可行,成功的代价如何,只有每个子项目都做到有把握后才能将整个项目推入实施阶段。 在项目通过可行性论证后,就转入正式的开发阶段。项目管理人员需要制定详细的开发的技术规划,一个项目的设计思路确定之后,该产品的开发成本、制造成本和维护成本也就大致确定下来了。 所以一个不良的规划,往往会对项目带来灾难性的后果。这个阶段项目负责人要和合作的开发人员充分交换意见,根据开发人员的数量和专长将项目分解开来,让每一个工程技术人员完成本项目的一部分工作。 项目开始运转后一定要做好全套设计文档。文档中要明确每个开发者所必须完成的功能和相互之间的接口。同时也要要求每个开发人员为自己所开发的模块做好技术文档。 表面上看这个工作增加了开发成本,但这样不仅有利于该项目今后的扩充维护,也同样有利于该项目的测试工作。这事实上降低了项目在这些方面的成本,项目规模越大,在这方面投入所体现的效益就越明显。 同时这项工作还可以降低由于开发人员流动带来的工程扩充维护的风险,因为技术文档越多越详细,继承该工作的技术人员所付出的时间代价就越小。 在元器件选择方面,应尽量使用标准器件或易于采购的器件。 因为这些元件产量大,价格好,供货渠道也多,对于降低硬件成本有显而易见的好处。尤其在所设计的产品产量不会很大的时候更应该如此。 在设计一些高附加值,小批量的产品的时候,尽量使用硬件模块和软件模块来设计,这虽然加大了一些投入,但总的来说,压缩开发时间,让产品更快面对市场带来的效益会大于这些投入。 同时模块化设计还可以提高产品的设计质量。更可以将开发人员的精力集中于高层次的设计上,提高他们的成就感。 尽量使用各种EDA(电子设计自动化)工具。 综合使用各种EDA工具来完成设计,可以大幅度加快开发进度,减少差错,提高工程质量。一提起EDA工具很多人就会想起Protel、Orcad、Pads等电路板布线软件。 其实这些工具不仅包含原理图和电路板布线,一般也包含了可编程逻辑器件(PLD)设计、信号仿真等模块,充分利用这些功能往往可以在设计阶段就发现很多构思和图纸上的缺陷。 对减少设计阶段的返工和修改有事半功倍的效果。此外,还有一些别的种类的软件,虽然不是专门的电子设计软件,但我们依然可以借用。 比如:如果项目中包含了复杂一些的数学算法(如模糊逻辑和人工神经元算法等),我们还可以动用专门的数学CAD软件――MATLAB先仿真一下你的信号处理流程,然后根据仿真的结果来设计相关的硬件和软件。 就节约了很多在目标机上反复写片、反复调试算法的时间。 在设计电路的时候,修改硬件在所难免。为了便于电路修改,要注意电路的可塑性。电路的可塑性是指电路的可修改能力。 如果电路便于修改,会减少很多开发人员更改电路的低级劳动。提高电路的可塑性一般有以下几种方法: 1. 能够使用软件实现的功能不要用硬件实现。 由于硬件和软件的物理结构的差异,在修改硬件的时候要付出比软件多得多的代价。用软件代替硬件后还能降低产成品的成本,便于批量生产和销售。 2. 如果电路中有CMOS、TTL电路要尽量使用PLD(可编程逻辑器件)来实现,因为PLD本身具有可修改的特性。 用它们实现数字逻辑后,要改变逻辑关系的时候,只要在计算机上修改它们的逻辑描述文件,然后经过编译、写片就得到一片新的逻辑关系的集成电路。就像修改软件一样容易。 用PLD代替不同的普通数字集成电路后,有利于减少元器件种类。方便采购和库存管理。 3. 试制过程中适当在电路板上多留一些资源,比如PLD的容量要比你预期的容量稍大一些,单片机的ROM、RAM、I/O端口等资源都要留适当的空余。 因为在设计过程中随时会有很多不可预见的情况发生,解决这些问题,通常会增加对硬件资源的需求量。如果没有在电路板上保留适当的冗余资源,将不得不在电路板外面再搭一块小电路板。 事实证明,这样修改电路不仅容易给电路引入干扰信号,而且会大幅度降低试制样机的可靠性,同时会使技术人员的很多时间花费在反复修改电路的简单劳动上。 编写单片机的软件的时候,应该尽量使用高级语言来编写。 现在许多开发单片机的技术人员依然保留了80年代的开发方法。使用汇编语言,逐条指令编写,并且手工分配单片机中的内存资源。 这种方法在写小规模软件还可以,可一旦软件规模变大之后,由于汇编语言的低可读性、低结构性往往会让设计人员被自己软件中的复杂的逻辑关系搞得晕头转向,在一个软件的逻辑关系混乱后,要保证写出来的软件能安全运转是很困难的。 我们推荐使用C语言来写软件单片机代码。(对于常见的8031系列,我们一般使用KEIL、FLANKLIN 等软件。 其它类型的单片机一般都有其配套的C语言编译器,该型号单片机的经销商一般可提供)用C语言有这么几个好处: 1. 可以大幅度加快开发进度。 2. 可以实现软件的结构化编程,它使得软件的逻辑结构变得清晰、有条理。 3. 在写一些数学算法和循环、判断语句的时候有比汇编语言高得多的效率。 4. 省去了人工分配内存资源的工作,在汇编语言中我们不得不为每一个子程序来分配储存变量的空间,这是一个复杂、乏味又容易出差错的工作。 而使用C语言后你只要在代码中申明一下变量的类型,编译器就会自动为你分配寄存器和内存,低级重复易出差错的事情都由计算机代劳了。根本不要人工干预。 5. 因为循环、判断语句和变量名字都使用自然语言,因此写出来代码的可维护性和软件可读性很好。这样当需要更换软件开发人员的时候,可以比较容易地进行代码移交和消化。 即使没有更换人员,他们在维护自己的代码的时候也比较容易。 6. 当写好了一个算法后,以后需要在不同种类的CPU上也需要这个算法时,可以直接引用原来的代码,再配合这种CPU专用的编译器重新编译就可以了。这样可以实现软件的低成本跨平台移植。 而汇编语言在这种情况下,除了重新写代码,没有别的办法。 因为C语言的这种特性,如果在设计复杂算法时(比如视频/音频信号处理、模糊逻辑和人工神经元算法等),可以在PC机上使用Visual C++、C++ Build等x86平台的C语言编译器设计、调试该算法的代码,调试成功后就可以移植到单片机的软件系统中去。 由于PC机上有充足的系统资源,开发调试进度会有大幅度的提高,这样就节约了软件的时间成本。 7. 在团体写作的软件中,软件接口容易做到规范统一。 虽然使用C语言写出来的代码会比汇编语言所占用的空间要大5%~20%,但是由于半导体技术的发展,芯片的容量和速度有了大幅度的提高。在这种情况下,代码占用的空间差异已经不是很关键的了。 相比之下,我们更应该注重软件是否可以长期稳定运行的能力,注重使用先进开发工具所带来的时间成本的优势。 ? |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/25 20:20:04- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |