Al expresar nuestro error de predicción, lo mas adecuado es hacerlo con el estadístico RMSEP. Estos son estadísticos que se calculan con un conjunto independiente de validación. El valor verdadero de predicción estaría dentro de (+/-) 2 x RMSEP aproximadamente con un intervalo de confianza del 95%.
Otra manera quizás mas clara de exponer nuestro error es el coeficiente de variación, para lo cual:
[RMSEP : Valor medio datos] x 100
Aclaraciones
El RMSEP no lleva la corrección de Bias aplicada, el SEP sí.
Hacer estos cálculos con el SECV, no nos darán una idea real del error y menos con el SEC.
El RMSEP no lleva aplicada la corrección del Bias, al contrario del SEP y el Bias va formar parte de nuestros errores al trabajar en rutina y debe de ser contabilizado.
Cuando los modelos son lo suficientemente robustos el RMSEP y el SEP son muy similares.
Importante:
Estadísticos como el GH deben de estar dentro de límites para asegurarse de que las muestras del colectivo externo de calibración esten representadas por el conjunto de calibración, de no ser así, los RMSEP serán mas altos que los SECV desarrollados en la calibración, lo que nos indicará que la calibración no es lo suficientemente robusta y que debe de ser expandida:
Ver entrada "Cross Validation" en el Blog: Learning WinISI.
Importante:
Estadísticos como el GH deben de estar dentro de límites para asegurarse de que las muestras del colectivo externo de calibración esten representadas por el conjunto de calibración, de no ser así, los RMSEP serán mas altos que los SECV desarrollados en la calibración, lo que nos indicará que la calibración no es lo suficientemente robusta y que debe de ser expandida:
Ver entrada "Cross Validation" en el Blog: Learning WinISI.
No hay comentarios:
Publicar un comentario