Questions tagged «calibration»

将仪器,传感器等的读数与标准读数进行关联,以检查其准确性。调整实验结果以考虑外部因素或允许与其他数据进行比较。

7
数字万用表需要校准吗?
本文了解数字万用表DMM规格/规格提及 数字万用表只能在特定环境中满足其规格。温度,湿度等条件会影响性能。线路电压等条件也会影响性能。为了确保数字万用表能够在其不确定性指标范围内运行,必须确保满足外部条件。超出此范围,误差会增加,无法再保证读数。 要考虑的另一个因素是数字万用表的校准周期。由于所有电路都会随时间漂移,因此需要定期重新校准数字万用表,以确保其工作在其规格范围内。校准周期将成为DMM规范的一部分。最通常的校准期是一年,但是某些数字万用表规格可能会规定90天的校准期。90天的期限将使更严格的规格适用于数字万用表,使其可用于要求更高的应用中。 在查看数字万用表的校准周期时,应记住,校准将成为拥有成本的重要因素,并且几年后将大大高于任何折旧的成本。通常建议对数字万用表进行较长的校准,除非需要特别苛刻的测试。 每年是否需要校准数字万用表?(据我了解,只有模拟万用表需要校准)

2
磁力计动态校准
我正在研究作为IMU一部分的磁力计AK8975。这对我来说似乎很棘手。该芯片提供3D向量作为输出,描述地球上任何地方或附近的地球磁场。 我尝试了两种航向计算算法:一种很简单arctan(-y/x),另一种是倾斜(俯仰)和倾斜(横滚)抵消的数学运算,如下所述。倾斜度和倾斜度都给出错误的输出。 当旋转地球时,使用两个算法中的任何一个,我都能获得正确的航向(使用简单的可用开放学习资源),使地球保持水平。 我尝试校准软铁和硬铁错误。我可以用3D绘制它并显示一个完美的3D球体。仍然不适用于倾斜或偏角。 任何指针都会有所帮助。 代码及其实现如下: void Compass_Heading() { double MAG_X; double MAG_Y; double cos_roll; double sin_roll; double cos_pitch; double sin_pitch; cos_roll = cos(roll); sin_roll = sin(roll); cos_pitch = cos(pitch); sin_pitch = sin(pitch); //// Tilt compensated Magnetic filed X: MAG_X = magnetom_x*cos_pitch + magnetom_y*sin_roll*sin_pitch + magnetom_z*cos_roll*sin_pitch; //// Tilt compensated Magnetic …

1
磁力计∞形校准
在移动电话和其他使​​用3轴电子罗盘的设备中,使用∞/ 8 / S形运动来校准磁力计,如这些视频所示。 为什么要执行此动作,其理论是什么,任何人都可以提供一些示例C代码来实现它吗? 您必须经历另一个包含更多信息的类似问题。 有关此特定问题的一些其他信息:该平台是使用AVR Studio 5的8位AtMega32。 到目前为止,我已经尝试过:我尝试将平均值除以制作形状的磁力计的矢量值的2。思考可能有助于计算偏移量。我认为形状的两个相同部分/侧面如何抵消地球的磁场并给出偏移值。我可能错了。但是特别是对于基于形状的校准,这是我目前所在的位置。我认为校准是通过这种方式进行的。这样做的目的是找出这样做的效果吗? 好的代码,通过它我可以计算出偏移量,然后再从原始3D矢量中简单地减去这些偏移量。我可能完全错了,没有任何解释。看完视频和球面上绘制的数据后,某种程度上加快了我的想法,我将这种想法用于方程式。B) 码: 的Read_accl();和Read_magnato(1);功能正在阅读的传感器数据。我希望代码可以自我解释。希望明智的ppl一定会以更好的方式使用它。:\ void InfinityShapedCallibration() { unsigned char ProcessStarted = 0; unsigned long cnt = 0; while (1) { Read_accl(); // Keep reading Acc data // Detect Horizontal position // Detect Upside down position // Then detect the Horizontal position …
15 calibration  imu 

3
标准伏特和安培
最近在这里有关如何计算电路精度的问题让我开始思考校准。 特别是,对于EE,我们通常将伏特和安培作为单位使用,但是这些都是相当模糊和难以量化的东西。 过去,伏特是由“标准单元”定义的,该单元被锁定在某个地方的金库中,但后来改为使用“约瑟夫森电压标准”,这是一个复杂的系统,使用的超导集成电路芯片工作于70- 96 GHz以产生仅取决于施加频率和基本常数的稳定电压。 后者并非完全可以放在地下室甚至大多数公司的测试工程部门中。 安培更糟。在SI中定义为“如果在两个无限长且横截面可忽略的直线平行平行导体中保持恒定且在真空中相距一米的恒定电流,将在这些导体之间产生等于2×10的力每米长度为-7牛顿。” 我没有任何人可以衡量的想法。 欧姆以前是由汞的特定高度和重量来定义的,但是为了成为1V和1A的衍生单位而放弃了它。 这一切使我想知道我们使用了多少校准到别人的仪表。以及那些仪表中有多少已经校准到其他人的仪表上。好像是一所大牌屋。 您是否可以购买某种中间标准的度量标准或设备,以用作1V,1A和1R的校准参考?(显然,您只需要其中两个。) 额外的问题:购买仪表或其他设备时,是否应该寻找某种认证标签,以表明其确实经过了实际的SI值测试,还是经过了Fluke测试?

4
校准热敏电阻的最简单方法是什么?
作为一个无法使用实验室设备的业余爱好者,对我来说似乎真的不可能校准我拥有的热敏电阻。 当然,还有经过校准的温度传感器,例如DS18B20,但是特别适用于慢速MCU(例如Aruino UNO)的热敏电阻(与新的MCU相比)更加简单。 在不使用实验室设备的情况下校准热敏电阻有哪些选择?

3
如何为PIC24 RTCC校准32.768kHz晶体
我正在尝试找出PIC24 RTCC晶体校准的最佳方法。他们的应用笔记陈述了两种方法:使用查找表和使用参考系统时钟。 根据他们的说法,参考系统时钟方法是最好的,但他们建议使用系统振荡器,该系统振荡器应是RTCC晶体振荡器的倍数,例如16.777MHz。 有人真的为PIC24尝试过RTCC晶体校准工艺吗?我将不胜感激一些实用的准则。我正在使用PIC24FJ128GA006。
10 pic  crystal  rtc  calibration 


1
智能手机如何测量电池电量?
智能手机(假设Android)通常会显示0%到100%的电池电量百分比。我假设这是电池的可用电量。我有几个问题: 1)它如何精确测量剩余功率?假设电池的额定电压为3.2V,则充满电后可能会提供3.3V的电压,而手机的最低要求电压可能是3V。0-100%是指3V至3.3V吗?在制造期间,此校准仅进行一次吗? 2)剩余功率百分比如何如此精确地测量?是否在一段时间内取平均值?如果是这样,则采样频率是多少,平均多少读数才能得出最终结果? 3)手机充电时如何测量剩余电量%?我猜想充电时输出电压可能会有所不同。 4)电池功率的校准如何受到环境温度的影响?我知道当今的电池具有温度传感器。用于计算电池剩余电量的温度还是最佳充电速率? 5)假设电池消耗与电池放电不成线性关系...(剧烈运动等)。智能手机如何处理可变放电率?有些应用程序可以重新校准电池。它们如何工作? 6)操作系统如何确定每个应用程序的电池使用情况?是仅基于CPU周期和屏幕时间,还是有一些实际的功耗度量? 如果这些问题太多,我深表歉意。我但我相信它们都有关。

4
仅使用1%的电阻并校准误差有多可行?
目前,我使用0.1%电阻器通过分压器获得准确的电压测量值。但是,成本很高,因此我考虑使用0.5%或1%的电阻器,并在生产过程中通过使用精密电压基准来校准软件中的误差。有人成功做到了吗?我可能会遇到什么陷阱?

1
如何校准多个磁力计以进行批量生产
在生产环境中如何校准几个磁力计?磁力计用于罗盘。 目前,我正在通过旋转所有三个维度的磁力计和相关电子设备,然后通过软件对磁场进行补偿,以在没有磁场干扰(即没有硬铁或软铁)的空旷区域中对它们进行逐一校准。车载电子设备固有的电磁干扰。 我很好奇,虽然有大公司在不引入电磁干扰的情况下扩展了此过程。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.