搞了低端的像STM32已经很多年了,虽说早有想法进入真正的Linux领域,还真没有合适的项目。这算是其中一个原因吧,动力不足,毕竟学了也没法赚钱。其二这两年嵌入式基本已经全面铺开了,从低端芯片到高端AI.自己不能算是没有积累,但苦于不知道能做些什么。 基于以上两点原因吧,一直没进入高端的linux.从哪里入门呢?就拿眼前遇到的开始吧! 2022年5月4日,假期的最后一天了,终过这十多天的从一无所知,到完成第一版原理图及PCB;也由于疫情,一直在家布板。为什么呢?不想在硬件上浪费很多时间。自己以后还是要往软件上面靠。做硬件的经历是痛苦的,所以不想一直做硬件了。
基础
关于QG2101A?
其真身是全志V831。刚从嘉立创平台上看了下,没有在售这款芯片。问了下选这款芯片的工程师,坦言是一个比较小众的芯片,说是bug不多!
自带mac与phy
phy就是网络通信中最底层的芯片,负责模数混合电路,负责接收电、光这类模拟信号,经过解调和A/D转换通过Mii接口将信号交给MAC芯片进行处理。mac就是网络中的介质访问控制层,解决与媒体接入有关的问题,在物理层的基础上进行无差错的通信。 一般像STM32这样的芯片只带MAC,所以还需要一个phy芯片,才能实现网络传输。
DDR?
双倍速度同步动态随机处理器,应该称为DDR SDRAM是在SDRMA基础上发展而来的。RAM,只在一个时钟上升期传输数据,而DDR在上升期与下降期各传输一次数据。
扩展
什么是soc?
指的就是系统级芯片。
什么又是GPU?
也就是常说的图形处理单元。
GPU与CPU的不同?
CPU 和 GPU 之间的主要区别在于 并行性。 在现代 CPU 中,您会发现多个复杂的高性能 CPU 内核。四核是主流计算机的典型特征,但六核和八核 CPU 正在成为主流。高端的专业电脑可能有几十个甚至上百个CPU核心,尤其是可以容纳一个以上CPU的多路主板。 现代 GPU 通常有 数千个 简单的处理器。例如,Nvidia 的 RTX 3090 GPU 拥有高达 10496 个 GPU 内核。与 CPU 不同,相比之下,每个 GPU 内核都相对简单,旨在执行图形工作中典型的计算类型。不仅如此,所有这数千个处理器都可以同时处理一小部分图形渲染问题。这就是我们所说的“并行”。 CPU 不是专门的,可以进行任何类型的计算,无论完成工作需要多长时间。事实上,CPU 可以做任何 GPU 可以做的事情,只是它做的不够快,无法在实时图形应用程序中发挥作用。
GPU应用场景?
-
游戏渲染场景,对GPU需求旺盛,如边缘计算场景,AI芯片主要承担推断任务,通过将终端设备上的传感器(麦克风阵列、摄像头等)收集的数据代入训练好的模型推理得出推断结果。由于边缘侧场景多种多样、各不相同,对于计算硬件的考量也不尽相同,对于算力和能耗等性能需求也有大有小。因此应用于边缘侧的计算芯片需要针对特殊场景进行针对性设计以实现最优的解决方案。 -
云端GPU使用。人工智能服务器通常搭载GPU、FPGA、ASIC等加速芯片,利用CPU与加速芯片的组合可以满足高吞吐量互联的需求,为自然语言处理、计算机视觉、语音交互等人工智能应用场景提供强大的算力支持,已经成为人工智能发展的重要支撑力量相比于传统CPU服务器,在提供相同算力情况下,GPU服务器在成本、空间占用和能耗分别为传统方案的1/8、1/15和1/8。 -
其他相关。数据中心、DPU:数据中心场景中的第三颗重要的算力芯片。专业显示:Quadro专业绘图工作站、RTX图形处理器、vGPU软件;汽车:DRIVEAGX为自动驾驶工作平台。 什么又是NPU? 嵌入式神经网络处理器.NPU采用了“数据驱动并行计算”架构,其具有低功耗的特点,擅长视频、图像类的多媒体数据处理,有助于人工智能在嵌入式机器视觉应用中稳定发挥。 什么是xboot? XBOOT不仅仅是一款功能强大、可移植性强、代码复用率高的嵌入式系统bootloader,而且还是一款SOC片上系统应用软件执行引擎,无需复杂的操作系统,APP上电直接执行。一次编写,到处运行,不仅仅是个口号,而且还是XBOOT存在的唯一原因。 一些基本特性,简单列举如下: 支持文件系统 支持lua虚拟机 支持各种协议栈 支持矢量图形库,矢量字体 支持各种现代GUI控件,以及动效 支持图像特效处理 支持二维码生成与识别 支持压缩启动 多平台支持 各种总线驱动,UART,I2C,SPI等等 各种设备驱动,GPIO、PWM、IRQ、CLK、LED、BUZZER、VIBRATOR、WATCHDOG、RNG、FRAMEBUFFER、RTC等 支持用lua编写应用软件,包含高等级API,可直接操作各种硬件抽象接口 应用软件平台无关,一次编写,到处运行
|