Questions tagged «communication»

设备之间的信息交换。通信可以是有线或无线的。


4
USART,UART,RS232,USB,SPI,I2C,TTL等。所有这些都是什么,它们之间有何关系?
作为电子新手,我听说过这些术语,并且到处都有。从根本上讲,我了解它们全部基于设备,计算机,外围设备等之间的通信。 我对它们全部如何工作有基本的了解,但是当我看到它们太多时却感到困惑,并且很难理解它们之间的关系。例如,UART是USART的子集吗?RS232和串口有什么区别?所有这些通信方法之间的核心区别是什么:可靠性,成本,应用程序,速度,硬件要求? 如果可以想象,我把所有这些术语写在卡片上,分散在咖啡桌上,我需要有人来帮助我组织我的理解。如果这个问题有点模糊,请原谅我,但我真的觉得这是所有问题的本质。


3
屏幕驱动程序如何处理这么多数据?
我只是做了一些快速计算: 在我的MacBook我的分辨率2560×1440乘以24位的颜色,我们得到11.05MB单个图片或663MB每秒60帧。 我猜有一些压缩,但是例如,当我用三个手指在触摸板上移动时,那是相当随机的,接下来屏幕上会发生什么,几乎每个像素都会改变。与几乎所有其他互动相同。 请说明我的计算是否错误以及如何将这些数据从图形卡传输到屏幕?我的图形卡和屏幕之间的总线有多宽?也许简而言之解释了显示器如何存储像素?移位寄存器?缓存?


7
为什么耳机插孔形插头不用于数据传输?
借助Apple的避雷线和USB 3.0,可逆式电缆正在起飞,我个人认为这非常方便。但是长期以来,我们一直都比耳机具有更好的可逆性,它可以插入任何方向,而不仅仅是两个方向。为什么耳机插孔形的连接器不经常用于数据?我所见过的用于音频和电源的形状(在iPod shuffle中,它曾经用于数据),仅此而已)。

2
为什么USB设备的速度低于480 MBit / s
动机 信号速率为480 MBit / s时,USB 2.0设备应能够以高达60 MB / s的速度传输数据。但是,今天的设备在阅读[ Wiki:USB ]时似乎被限制为30-42 MB / s 。那是30%的开销。 十多年来,USB 2.0已经成为外部设备的事实上的标准。早期以来,USB接口最重要的应用之一就是便携式存储。不幸的是,USB 2.0迅速成为了这些带宽要求较高的应用程序的速度限制瓶颈,例如,当今的HDD能够以90 MB / s的顺序读取速度。考虑到长期的市场占有率以及对更高带宽的持续需求,我们应该期望USB 2.0 eco系统经过多年的优化,其读取性能已接近理论极限。 在我们的案例中,理论上的最大带宽是多少?每个协议包括USB都有开销,根据官方USB 2.0标准,它为53.248 MB / s [ 2,表5-10]。从理论上讲,这意味着今天的USB 2.0设备可以快25%。 分析 为了深入探究此问题的根源,以下分析将演示在从存储设备读取顺序数据时总线上正在发生的情况。该协议是逐层分解的,我们特别对以下问题感兴趣:为什么53.248 MB / s是批量上游设备的最大理论数量。最后,我们将讨论分析的局限性,这可能会给我们带来一些额外开销的提示。 笔记 在整个问题中,仅使用十进制前缀。 USB 2.0主机能够处理多个设备(通过集线器),每个设备可以处理多个端点。端点可以在不同的传输模式下运行。我们将分析限制在直接连接到主机并且能够在高速模式下通过上游批量端点连续发送完整数据包的单个设备上。 构图 USB高速通信以固定帧结构同步。每个帧长125 us,并以帧起始数据包(SOF)开始,并受帧结束序列(EOF)限制。每个数据包均以SYNC开头,并以和数据包结尾(EOF)结尾。为了清楚起见,这些序列已添加到图中。EOP的大小是可变的,并且取决于分组数据,对于SOF,它始终为5个字节。 在新标签页中打开图片可查看大图。 交易次数 USB是主驱动协议,每个事务都由主机启动。SOF和EOF之间的时隙可用于USB事务。但是,SOF和EOF的时间安排非常严格,并且主机仅启动可以在空闲时隙内完全完成的事务。 我们感兴趣的事务是成功的批量IN事务。事务从令牌包IN开始,然后主机等待数据包DATA0 / DATA1,并通过握手包ACK确认传输。所有这些数据包的EOP都是1到8位,具体取决于数据包数据,在此我们假定了最坏的情况。 在这三个数据包之间,我们必须考虑等待时间。它们位于主机的IN数据包的最后一位与设备的DATA0数据包的首位之间,以及DATA0数据包的最后一位与ACK数据包的第一位之间。我们不必考虑任何进一步的延迟,因为主机可以在发送ACK之后立即开始发送下一个IN。电缆传输时间定义为最大18 …


8
什么时候应该从ASCII切换到高级串行协议?
我所有通过UART与PC通信的微控制器设备都使用ASCII字符串发送命令和接收数据(在Arduino中实现)。这是我开始研究电子产品时学到的,我总是发现发送裸线就足够了。但是我注意到,我遇到的大多数设备都使用复杂的二进制协议,其中包括功能代码,地址和CRC错误检查。 什么时候可以接受基本的ASCII通讯?何时应该考虑使用更高级的功能,例如Modbus?商用设备是否使用这种ASCII?产业?

3
255 Tbit / s在光纤通信中如何处理?
我从未理解过如何在从电信号到光信号的转换方面达到新的打破记录的数据传输速度。 假设我们有255 Tbits的数据,并且我们想在一秒钟内传输它。(这是现实生活中的成就。)您将255 Tbits存储在255万亿个电容器(即RAM)中。现在,我们有望能够连续读取每一位,查询每一位,以便一秒钟后我们已读取全部255万亿个。这显然不是3 GHz处理器精心策划的。 接收端呢?脉冲频率为255 THz,但是电子设备尝试读取输入信号的刷新率到目前为止不是255 THz。我能想象的唯一一件事就是成千上万个处理器,它们的时钟信号时分复用(延迟)了少于0.000000000001秒。尽管如何实现这种多路复用也使我回到了这个千倍频率差异的问题。

3
为什么毫米波天线上的反射器旋转?
Facebook上的 WIRED YouTube视频,其中Facebook寻求通过太阳能无人机向互联网传播的内容,以及Facebook的首次努力从天而降Internet的内容显示了一个碟形天线(从02:00开始),看起来像是Cassegrain辅助反射镜。视频和文章的上下文表明,它是用于测试到飞机的E波段毫米波数据上/下链接(根据文章,大约为60至90 GHz,或5至3毫米波长)。 我注意到辅助镜像正在旋转。通过观察摆动并检查单个帧,似乎每秒至少旋转4转。它可能会快得多,而别名会使它看起来很慢。 我想不出什么原因会转弯。它绕光轴旋转,因此不会在主要和次要喇叭位置之间切换。 为什么毫米波天线上的反射器旋转? 上图:此WIRED YouTube视频中提取和裁剪的帧制成的GIF 。 上图:右键单击可查看大图;从有线到毫米波数据链接到飞机的地面站。照片来源Damon Casarez。

5
我可以在2m电缆上使用I2C吗?
在我当前的项目中,我需要通过I2C在微控制器和一些传感器之间进行通信。其中之一是温度传感器,需要将其放置在距离微控制器约2米的位置。我无法选择其他协议(传感器在具有给定连接器/引脚/协议的模块上)。 您认为可以在这种配置下进行通讯吗?我应该查询哪些信息以确保它不可能或不可能?你有什么建议吗? 这是我第一次与PCB外部的IC通信。

6
串行协议定界/同步技术
由于异步串行通信甚至在当今的电子设备中也很普遍,我相信我们许多人会不时遇到这样的问题。考虑与串行线(RS-232或类似产品)连接并且需要连续交换信息的电子设备D和计算机。即每个发送一个命令帧,并每个发送一个状态报告/遥测帧答复(报告可以作为对请求的响应发送,也可以独立发送-在这里并不重要)。通信帧可以包含任何任意二进制数据。假设通信帧是固定长度的分组。PCPCX msDY ms 问题: 由于协议是连续的,因此接收方可能会失去同步,或者只是在进行中的发送帧中间“加入”,因此它只是不知道帧起始位置(SOF)在哪里。根据数据相对于SOF的位置,数据具有不同的含义,接收到的数据可能会永久损坏。 所需的解决方案 可靠的定界/同步方案可在恢复时间短的情况下检测SOF(即重新同步所需的时间不超过1帧)。 我了解(并使用了一些)的现有技术: 1)标头/校验和 -SOF作为预定义的字节值。帧末的校验和。 优点:简单。 缺点:不可靠。恢复时间未知。 2)字节填充: 优点:可靠,快速恢复,可与任何硬件一起使用 缺点:不适用于固定大小的基于帧的通信 3)第9位标记 -在每个字节之前附加一个位,而SOF标记为1和数据字节标记为0: 优点:可靠,快速恢复 缺点:需要硬件支持。大多数PC硬件和软件未直接支持。 4)第8位标记 -上面的一种模拟,同时使用第8位而不是第9位,每个数据字仅保留7位。 优点:可靠,快速的恢复,可与任何硬件一起使用。 缺点:需要从/到常规8位表示到/从7位表示的编码/解码方案。有点浪费。 5)基于超时 -假定SOF为某个已定义的空闲时间之后的第一个字节。 优点:无数据开销,简单。 缺点:不太可靠。在较差的计时系统(如Windows PC)上无法很好地工作。潜在的吞吐量开销。 问题: 还有哪些其他可能的技术/解决方案可以解决该问题?您能否指出上面列出的缺点,可以轻松解决这些缺点,从而消除它们?您(或您将)如何设计系统协议?
24 serial  communication  protocol  brushless-dc-motor  hall-effect  hdd  scr  flipflop  state-machines  pic  c  uart  gps  arduino  gsm  microcontroller  can  resonance  memory  microprocessor  verilog  modelsim  transistors  relay  voltage-regulator  switch-mode-power-supply  resistance  bluetooth  emc  fcc  microcontroller  atmel  flash  microcontroller  pic  c  stm32  interrupts  freertos  oscilloscope  arduino  esp8266  pcb-assembly  microcontroller  uart  level  arduino  transistors  amplifier  audio  transistors  diodes  spice  ltspice  schmitt-trigger  voltage  digital-logic  microprocessor  clock-speed  overclocking  filter  passive-networks  arduino  mosfet  control  12v  switching  temperature  light  luminous-flux  photometry  circuit-analysis  integrated-circuit  memory  pwm  simulation  behavioral-source  usb  serial  rs232  converter  diy  energia  diodes  7segmentdisplay  keypad  pcb-design  schematics  fuses  fuse-holders  radio  transmitter  power-supply  voltage  multimeter  tools  control  servo  avr  adc  uc3  identification  wire  port  not-gate  dc-motor  microcontroller  c  spi  voltage-regulator  microcontroller  sensor  c  i2c  conversion  microcontroller  low-battery  arduino  resistors  voltage-divider  lipo  pic  microchip  gpio  remappable-pins  peripheral-pin-select  soldering  flux  cleaning  sampling  filter  noise  computers  interference  power-supply  switch-mode-power-supply  efficiency  lm78xx 

8
如果接收到的功率低于本底噪声,是否可以接收信息?
这与我以前的问题有关,我认为我以错误的方式提出了这个问题: 如何将背景EM噪声插入路径损耗方程式? 我对信号的可检测性并不十分感兴趣,我对这个问题的表述非常含糊,所以让我问一下我真正想知道的内容。 题: 我真正想知道的是,如果接收天线接收到的信号的接收功率电平低于本底噪声,则可以建立一个通信通道(发送信息)。 让我解释: 我对此进行了更多研究,功率水平通常以dBm或dBW表示,在这个问题中,我将以dBW表示。 然后,我们将功率插入了发射器天线,并且有了路径损耗方程,可以确定到信号到达接收器天线时衰减了多少。 因此,我们有两个dBW值,而我的理论是,天线接收的功率(以dBW为单位)必须高于本底噪声(以dBW为单位)。 1) 为了这个论点,让我们使用20 cm长的发射器/接收器天线,彼此之间的距离为1米,频率为5 GHz。再次,我从根本上使用最大增益,因为我也在查看是否可以完全建立通信通道,因此必须插入最极端的值才能确定基本极限。在这种情况下,两个天线都具有16.219 dB的增益,这是它们在该频率下可以具有的最大增益,并且最大的意思是高于该增益将违反节能规律。因此,这些天线在理论上是完美的无损天线。这是一个远场方程,因此为简单起见,我选择此方程,可以使用Friis公式。 因此,路径损耗方程式表明该通信信道具有〜-14 dB的路径损耗。因此,如果我们插入的功率为1瓦,则接收器天线接收的功率应不超过-14dBW。 2) 我偶然发现了一篇论文: http://www.rfcafe.com/references/electrical/ew-radar-handbook/receiver-sensitiveivity-noise.htm 它声称接收器天线的最小灵敏度是: Smin=10∗log10((S/N)∗k∗T0∗f∗Nf)Smin=10∗log10⁡((S/N)∗k∗T0∗f∗Nf) S_{min} = 10* \log_{10}( (S/N)*k*T_0*f*N_f ) wherewherewhere S / N =信噪比 k =玻尔兹曼常数 T0 =接收天线的温度 f =频率 Nf =天线的噪声系数 这也是dBW单位。该公式将描述该频率下的本底噪声。 回到我们的计算中,本文建议,在最佳情况下,当熟练的手动操作人员使用3 dB S / N比(最大值)时,我们将在室温下使用290开尔文,频率为5 Ghz,并且由于我们早先假设是完美的天线,因此我将忽略噪声因子。 这将给我们-104 dBW的本底噪声。 因此,由于接收功率电平为-14 …

6
是什么驱动着向更快的蜂窝网络速度发展?[关闭]
已关闭。这个问题是基于观点的。它当前不接受答案。 想改善这个问题吗?更新问题,以便通过编辑此帖子以事实和引用的形式回答。 去年关闭。 我一直都接受技术的进步。诞生于90年代,如果您等了几年,一切都会变得更快,更小,更便宜,而且总体上会更好。这在电视,个人电脑和手机等消费类电子产品中最为明显。 但是,现在我想到,除了一个因素外,我知道是什么驱动了大多数这种变化。计算机和手机变得越来越快,这主要是因为我们能够制造出更小,更高效的晶体管(我听说每两年每单位硅面积的晶体管数量增加一倍左右)。 DSL首先使Internet变得更快,这将固定电话铜双绞线的带宽推到了最大。当我们用完铜线内的可用频谱时,我们转向了光纤,这是一个全新的游戏。 TL; DR:但是,什么使蜂窝网络保持更快的速度呢?我已经拥有2G,3G和现在的LTE手机,其速度差异是天文数字,类似于过去十年中在家庭互联网中观察到的差异。 但是,LTE信道不一定具有更大的带宽(事实上,我相信LTE使用的带宽会更少:3G使用5 MHz的信道,而LTE的信道可能会更小(从1.4到20 MHz))。此外,我已经多次听到LTE在每频道Hz bps方面更有效的信息(我将在此处添加“需要的引用”,我将是第一个承认其听起来至少可疑的人)。 那是什么 只是更多频谱?更好和更小的电子产品?还是我们在其他方面对此有所改善?为何如此?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.