Forum

Avisos
Vaciar todo

Optimizando la Reproducibilidad y Rendimiento  

  RSS

img-perfil
(@giani-carlevaro)
Admin
Registrado: hace 4 años
Respuestas: 69
17/09/2023 9:48 pm  

Random_state.

random_state es un parámetro que asegura que los resultados en el aprendizaje automático sean consistentes y reproducibles al fijar una semilla aleatoria. Esto facilita la comparación de resultados, la depuración de código y la toma de decisiones basadas en datos. Sin random_state, los resultados pueden variar en cada ejecución, lo que dificulta la consistencia y la colaboración en proyectos de aprendizaje automático.


Citar
img-perfil
(@giani-carlevaro)
Admin
Registrado: hace 4 años
Respuestas: 69
19/09/2023 12:40 am  

Modelo.

La elección del algoritmo de clasificación depende de la naturaleza de los datos y de los requisitos específicos del problema. 

La regresión lineal no es apropiada para la clasificación, ya que está diseñada para problemas en donde implica predecir un valor numérico continuo o una variable dependiente que puede tomar cualquier valor a partir de un conjunto de variables independientes.

En los problemas de clasificación, el objetivo es asignar una etiqueta o categoría discreta a un conjunto de datos de entrada, algunos algoritmos recomendados para problemas de clasificación:

  1. Regresión Logística: Es un algoritmo de clasificación binaria que modela la probabilidad de que una observación pertenezca a una de las dos clases. 
  1. Máquinas de Soporte Vectorial (SVM): SVM es un algoritmo de clasificación que encuentra el hiperplano que mejor separa las clases en un espacio de características. Puede utilizarse tanto en clasificación binaria como en clasificación multiclase.
  1. Árboles de Decisión y Bosques Aleatorios: Estos algoritmos son adecuados para problemas de clasificación y pueden manejar múltiples clases. Los árboles de decisión dividen el espacio de características en regiones y asignan clases a esas regiones.
  1. Redes Neuronales: En particular las redes neuronales profundas, son algoritmos de aprendizaje profundo que se utilizan en una variedad de problemas de clasificación, incluidos problemas de clasificación de imágenes y procesamiento de lenguaje natural.
  1. Naive Bayes: Este es un algoritmo de clasificación que se basa en el teorema de Bayes. Es especialmente útil en problemas de clasificación de texto y minería de datos.

ResponderCitar
img-perfil
(@giani-carlevaro)
Admin
Registrado: hace 4 años
Respuestas: 69
20/09/2023 1:21 am  

Orden de la normalización y Búsqueda de hiperparámetros.

El orden de la normalización y la búsqueda de hiperparámetros depende del tipo de algoritmo.

Si usamos algoritmos sensibles a la escala de características, como SVM o k-Nearest Neighbors, se normaliza primero antes de la búsqueda de hiperparámetros. En cambio, si usamos algoritmos no sensibles a la escala, como árboles de decisión, se busca hiperparámetros primero y se normaliza después si es necesario.

La normalización es fundamental para algoritmos sensibles a la escala. El objetivo es encontrar la secuencia que maximice el rendimiento del modelo. Entonces, la aplicación de normalización a los datos antes de entrenar un modelo de aprendizaje automático depende del tipo de algoritmo que se use y de las características de los datos.

En resumen, algunos puntos clave para considerar:

     - Algoritmos sensibles a la escala, como k-Nearest Neighbors o SVM, suelen necesitar normalización.

     - Si las características tienen escalas muy diferentes, la normalización puede ayudar a equilibrar su influencia en el modelo.

     - La normalización puede ser útil si las características siguen una distribución normal y para interpretar coeficientes de modelos lineales.

     - En ocasiones, la normalización puede no afectar significativamente el rendimiento del modelo, especialmente si las diferencias de escala son pequeñas.

     - Experimentar con y sin normalización es una buena práctica para evaluar su impacto en el rendimiento


ResponderCitar
img-perfil
(@giani-carlevaro)
Admin
Registrado: hace 4 años
Respuestas: 69
21/09/2023 12:13 am  

Mejorar el modelo.

Para mejorar el modelo luego de normalización y ajustar hiperparámetros algunas estrategias que podemos aplicar son: 

  • Explorar Otros Modelos: Prueba otros modelos de clasificación, como Random Forest, Gradient Boosting, Support Vector Machines, según la naturaleza de los datos algunos modelos aplican mejor que otros.
  • Aumento de Datos (Data Augmentation): Se puede probar generar datos sintéticos para el entrenamiento. Esto puede ayudar a mejorar el rendimiento del modelo y reducir el sobreajuste.
  • Optimización de Hiperparámetros: Utilizando técnicas de búsqueda como Random Search o Bayesian Optimization pueden ayudar a encontrar una combinación óptima de hiperparámetros.
  • Validación Cruzada (Cross-Validation): Sirve para evaluar el rendimiento del modelo de manera más robusta y evitar el sobreajuste.
  • Tratamiento de Datos Desbalanceados: Si el conjunto de datos está desbalanceado (una clase tiene muchos más ejemplos que la otra), podemos considerar técnicas de remuestreo, como el sobremuestreo de la clase minoritaria o el submuestreo de la clase mayoritaria.
Esta publicación ha sido modificada el hace 1 año por giani.carlevaro

ResponderCitar