Conocer el significado y las diferencias de la incertidumbre, los errores y la tolerancia es crucial. La razón es que estos parámetros ayudan a fabricar piezas que funcionan. Recuerde que, cuando realizamos mediciones, las lecturas o los resultados nunca son exactos. Esto es así tanto si medimos manualmente como si utilizamos máquinas avanzadas.
En consecuencia, sigue habiendo dudas sobre los resultados de la medición. Por eso es útil utilizar parámetros como la incertidumbre y la tolerancia. Recuerde que estos parámetros se utilizan mucho en pruebas de laboratorio y en la fabricación de piezas. En este artículo hablaré de la incertidumbre, los errores y la tolerancia, así como de sus principales diferencias. Empecemos.
¿Qué es la incertidumbre de medición?
La incertidumbre es un parámetro importante utilizado en diferentes laboratorios y pruebas. Da la idea de que la medición realizada no es 100% precisa. Hay que tener en cuenta algunas probabilidades o errores durante la fabricación o los ensayos. En otras palabras, la incertidumbre indica una probabilidad de errores para una medición exacta. Muestra que la medición final puede ser ligeramente superior o inferior a la medición anotada.
Verá la incertidumbre escrita como ±0,1, ±0,2, ±0,3, etcétera. Los signos más y menos indican que la medición específica puede ser mayor o menor en ese número concreto. Supongamos que mide 20 cm con ±0,5 de certeza. Esto significa que la medida está ligeramente desviada, con una variación posible de ±0,5.
Esto significa que la medida puede ser 20,5 cm o 19,5 cm. Esta es la mejor manera de eliminar la confusión y transmitir el mensaje de que la medición no debe considerarse perfecta. Cabe señalar que la incertidumbre no sólo se tiene en cuenta en las mediciones manuales, sino también en las realizadas por máquinas. Recuerde que tanto los humanos como las máquinas son siempre propensos a cometer errores.
Diversos factores pueden hacer que la lectura sea ligeramente menos precisa. Entre ellos se incluyen la humedad, la temperatura, las marcas de medición a gran escala, etc. Sin embargo, al utilizar la incertidumbre, se reduce la probabilidad de errores. Esta incertidumbre es aún más crítica cuando se fabrican piezas o productos que requieren precisión.
¿Cómo calcular la incertidumbre?
En los laboratorios se utilizan dos lecturas o mediciones. Se trata del valor medido y del valor real. El valor verdadero determina los errores y la incertidumbre. Por tanto, el cálculo de la incertidumbre ayuda a determinar cuánto se desvía un valor medido del valor verdadero. He aquí la fórmula exacta que puede utilizar para calcular la incertidumbre:
Incertidumbre ≈ (Valor máximo - Valor mínimo) ÷ 2
Supongamos que tienes una varilla y la mides con herramientas de medición específicas. Durante estas mediciones, obtienes lecturas diferentes, como 50 cm, 49,3 cm, 49,5 cm, 50,5 cm y 50,7 cm. Esto significa que cada vez que has medido, has encontrado una ligera diferencia. Como hay desviaciones en las mediciones, esto indica incertidumbre.
Para calcularlo, tomará el valor de medición máximo y lo restará del valor de medición mínimo. Por ejemplo:
Incertidumbre = (50,7 - 49,3) ÷ 2 = 0,7 cm (o ±0,7 cm)
El valor medido es de unos 50 cm ±0,7 cm. Esto significa que el valor real en estas mediciones puede ser 50 cm ±0,7 cm. Indica que el valor puede ser 0,7 cm menor o 50 cm mayor que 50 cm. También puedes calcular la incertidumbre utilizando esta fórmula para diferentes valores.
¿Qué es el error de medición?
Como ya se ha mencionado, la incertidumbre indica la probabilidad de que se produzca un error. Sin embargo, el error propiamente dicho es la diferencia entre el valor medido y el valor real. Existen principalmente dos tipos de errores: positivos y negativos. Por ejemplo, si su valor medido es de 30 cm. Sin embargo, el valor verdadero de esta medición es 33 cm.
Esto significa que hay errores por -3 cm. Como es menos, serían errores negativos. Del mismo modo, si tu valor verdadero fuera 30 cm, y tu valor medido fuera 33 cm. En tal caso, habrá un error de 3 cm, y se denomina error positivo. ¿Tienes dudas sobre cómo calcular los errores? Aquí tienes la fórmula:
Error = Valor medido - Valor real
Cabe señalar que las mediciones nunca pueden ser 100%, ni siquiera con los métodos más actualizados. Múltiples factores provocan errores de medición. Entre ellos están los problemas en las herramientas, el impacto medioambiental, los fallos de la persona, etc. Por desgracia, no podemos controlar todos los factores para obtener una medición 100% precisa. Si pudiéramos, habríamos eliminado los errores. Sin embargo, conocer el error siempre es beneficioso cuando se trabaja en un laboratorio con equipos diferentes.
Tipos de errores
Los errores pueden clasificarse según sus causas. Algunos errores pueden mitigarse hasta cierto punto, pero requieren el máximo cuidado y entornos controlados. He aquí la lista de estos tipos:
- Error humano
- Error aleatorio
- Error sistemático
- Errores de calibración
Como ya he mencionado, los errores son inevitables, independientemente de lo buenas que sean sus habilidades de medición. Son inevitables, por lo que comprenderlos es crucial para mitigar su impacto en las piezas o pruebas de precisión. Los errores humanos se encuentran entre los más comunes y son el resultado de la negligencia humana. Aunque mida con la máxima atención, seguirá cometiendo errores. El error aleatorio se produce debido a un factor impredecible.
El rango de error puede variar cada vez debido a errores aleatorios. Los errores sistemáticos y de calibración están estrechamente relacionados. Están causados por una calibración incorrecta o por herramientas de medición defectuosas. Sin embargo, este error suele ser constante independientemente del número de veces que se mida. ¿Por qué? Porque está utilizando herramientas defectuosas o no están calibradas para ofrecerle una lectura precisa.
¿Qué es la tolerancia?
La tolerancia es otro parámetro importante, pero es diferente tanto de la incertidumbre como de los errores. ¿Por qué? La razón es que la tolerancia indica una variación admisible o permisible del valor. En otras palabras, se refiere a la desviación aceptable para el ensayo o montaje de diferentes piezas. Supongamos que tenemos una varilla de 70 mm de longitud con una tolerancia de ±0,4 mm.
Esto significa que la varilla debe ser de 70 mm. Sin embargo, si es de 69,6 o 70,6, sigue siendo aceptable, y su funcionamiento específico no se detendrá. Este ±0,4 mm es en realidad una variación o desviación, pero este rango es aceptable. Este más-menos (±) indica el margen de variación, que no es decisivo para la prueba o el proceso de fabricación. Supongamos que está realizando una prueba en un cámara de pruebas ambientales. En esta prueba, la tolerancia de temperatura es de ±2 grados Celsius.
En tal caso, su prueba estará bien si la temperatura está entre 32 o 28 y 32 grados centígrados. La desviación de ±2 grados Celsius es aceptable para esta prueba, y seguirá obteniendo resultados precisos. Esto le permite mantener la temperatura ajustada a 30 grados Celsius, pero con variaciones aceptables. Esto es muy útil si sus cámaras ambientales son viejas y fluctúan ligeramente en la temperatura.
Diferencia entre incertidumbre, error y tolerancia
Incertidumbre, error y tolerancia son conceptos distintos. De hecho, tienen propósitos diferentes para ingenieros y fabricantes. En primer lugar, la incertidumbre se refiere a la posibilidad de errores. Indica que los fabricantes no deben confiar ciegamente en la medición. Existe la posibilidad de que se produzcan errores en la lectura, que deben tenerse en cuenta. Esto ayuda a tomar decisiones cuando se fabrican piezas en las que la precisión es lo más importante.
Los errores, en cambio, son desviaciones entre los valores medidos y los reales. Se realizan mediciones pero se desvían claramente del valor real, lo que da lugar a un error. Los errores de fabricación ayudan a identificar el problema exacto. Cuando los fabricantes encuentran errores, identifican las posibles causas, como herramientas defectuosas o errores humanos. En consecuencia, intentan eliminar los errores en la medida de lo posible. Con el tiempo, esto les ayuda a fabricar piezas o productos fiables.
Por último, la tolerancia permite una desviación aceptable. En otras palabras, indica un límite más allá del cual un error es aceptable. Denotado por más-menos (±), indica si el error cometido afecta al funcionamiento de las piezas. Supongamos que hay que ajustar dos piezas para que funcionen correctamente. La tolerancia representa la desviación aceptable para que las piezas sigan encajando entre sí. En términos sencillos, tolerancia significa que las piezas o productos son útiles si tienen errores dentro de un rango específico (aceptable).
| Incertidumbre | Error | Tolerancia |
| Dudas sobre la medición | Desviación del valor real | Límite permitido |
| Sobre el proceso | Sobre el valor real | Acerca del diseño |
| Demuestra fiabilidad | Muestra error | Garantiza el funcionamiento |
| Basado en probabilidades | Diferencia exacta | Enfoque de aceptabilidad |
Conclusión
Concluyamos: las pruebas de laboratorio y la fabricación de productos tienen requisitos diferentes. A veces implican mediciones y parámetros. Estos parámetros indican si las distintas piezas formarán el producto final y si la prueba ha tenido éxito o no. También ayudan en la toma de decisiones al determinar si la medida de la pieza es aceptable o no.
La incertidumbre, el error y la tolerancia son elementos integrantes de todo proceso de producción. La incertidumbre indica el rango posible de error o duda en la medición. Por el contrario, un error indica una desviación clara entre los valores medidos y los verdaderos. Por último, la tolerancia se refiere al margen aceptable de desviación o error. Los fabricantes utilizan los tres parámetros para fabricar un producto apto para su uso en situaciones reales.


