Glosario de IA y aprendizaje automático

Contenidos generados por IA

Algoritmo

Conjunto de reglas o instrucciones paso a paso que sigue un ordenador para resolver un problema o realizar una tarea. Los algoritmos de IA pueden ir desde simples reglas de decisión hasta complejos procedimientos matemáticos.

Inteligencia Artificial (IA)

Campo de la informática centrado en la creación de sistemas capaces de realizar tareas que normalmente requieren inteligencia humana. Esto incluye el razonamiento, el aprendizaje, la planificación, la percepción, la comprensión del lenguaje y la resolución de problemas.

Sesgo

Cualquier error sistemático que lleve a un modelo a producir sistemáticamente resultados sesgados en una dirección. El sesgo puede tener su origen en datos de entrenamiento desequilibrados, suposiciones erróneas en el diseño del modelo o la forma en que se recopilaron los datos. Abordar el sesgo es crucial para crear sistemas de IA justos y equitativos.

Agrupación

Técnica de aprendizaje no supervisado que agrupa puntos de datos similares en función de sus rasgos o características. A diferencia de la clasificación, el clustering no utiliza etiquetas predefinidas. Entre los algoritmos de agrupación más comunes se encuentran K-means, DBSCAN y la agrupación jerárquica.

Visión por ordenador

Campo de la IA que permite a los ordenadores interpretar y comprender la información visual del mundo. Incluye el reconocimiento de imágenes, la detección de objetos, la reconstrucción de escenas y el análisis de vídeo. Los sistemas de visión por ordenador pretenden reproducir y superar las capacidades visuales humanas.

Árbol de decisión

Modelo predictivo que utiliza una estructura arborescente de decisiones y sus posibles consecuencias. Cada nodo interno representa una decisión basada en una característica, cada rama representa un resultado de esa decisión y cada nodo hoja representa una etiqueta de clase o predicción de valor.

Aprendizaje profundo

Subconjunto especializado del aprendizaje automático que utiliza redes neuronales artificiales con múltiples capas (de ahí lo de “profundo”) para extraer progresivamente características de nivel superior a partir de datos de entrada sin procesar. El aprendizaje profundo ha revolucionado campos como el reconocimiento de imágenes, el procesamiento del lenguaje natural y los juegos.

Reducción de la dimensionalidad

Conjunto de técnicas utilizadas para reducir el número de características de un conjunto de datos conservando toda la información posible. Esto ayuda a combatir la “maldición de la dimensionalidad”, mejora la eficiencia computacional y puede hacer que los patrones sean más evidentes. Entre los métodos más comunes se encuentran el PCA, el t-SNE y los autocodificadores.

Métodos de conjunto

Técnicas que combinan varios modelos para mejorar el rendimiento global. Al aprovechar los puntos fuertes de los distintos modelos, los conjuntos suelen lograr una mayor precisión y solidez que los modelos individuales. Entre los métodos más populares se encuentran el bagging, el boosting y el stacking.

IA explicable (XAI)

Un campo emergente centrado en hacer que las decisiones de la IA sean transparentes e interpretables para los humanos. El objetivo de la XAI es desarrollar métodos y herramientas que ayuden a los usuarios a entender por qué un sistema de IA ha tomado una decisión determinada, lo que es crucial para generar confianza y garantizar la responsabilidad en aplicaciones de alto riesgo.

Característica

Propiedad o característica mensurable del fenómeno observado. Las características son las entradas que utilizan los modelos de aprendizaje automático para hacer predicciones. Una buena selección e ingeniería de características suele ser crucial para el rendimiento del modelo.

Redes generativas adversariales (GAN)

Un marco en el que dos redes neuronales -un generador y un discriminador- compiten entre sí. El generador crea muestras de datos sintéticos, mientras que el discriminador intenta distinguir entre muestras reales y falsas. Mediante este proceso contradictorio, las GAN pueden producir contenidos sintéticos extraordinariamente realistas.

Descenso gradual

Algoritmo de optimización utilizado para minimizar una función moviéndose iterativamente en la dirección del descenso más pronunciado. En el aprendizaje automático, se utiliza para encontrar los pesos óptimos de un modelo minimizando la función de pérdida. Las variantes incluyen el descenso de gradiente estocástico (SGD) y el descenso de gradiente en mini lotes.

Hiperparámetros

Ajustes de configuración especificados antes de entrenar un modelo que controlan el proceso de aprendizaje. A diferencia de los parámetros del modelo (pesos y sesgos) que se aprenden durante el entrenamiento, los hiperparámetros deben establecerse manualmente o ajustarse mediante técnicas como la búsqueda en cuadrícula o la optimización bayesiana.

Etiqueta

Variable objetivo o resultado que un modelo de aprendizaje supervisado pretende predecir. Las etiquetas son las “respuestas” proporcionadas en los datos de entrenamiento que el modelo aprende a asociar con características de entrada específicas.

Función de pérdida

Función matemática que mide la diferencia entre las predicciones de un modelo y los valores reales. El objetivo durante el entrenamiento es minimizar esta función. Las funciones de pérdida más habituales son el error cuadrático medio en regresión y la entropía cruzada en clasificación.

Aprendizaje automático (ML)

Un subconjunto de la IA en el que los sistemas aprenden patrones a partir de los datos sin estar explícitamente programados con reglas. Los algoritmos de ML mejoran su rendimiento con la experiencia, adaptando su comportamiento en función de la exposición a más datos.

Modelo

Representación matemática o computacional que capta patrones en los datos. En el aprendizaje automático, los modelos definen la relación entre las características de entrada y las predicciones de salida. Los modelos pueden ir desde simples ecuaciones lineales a complejas redes neuronales con millones de parámetros.

Procesamiento del lenguaje natural (PLN)

Campo de la Inteligencia Artificial que se ocupa de capacitar a los ordenadores para comprender, interpretar y generar lenguaje humano. La PLN abarca tareas como el análisis de sentimientos, la traducción automática, la respuesta a preguntas y el resumen de textos.

Red neuronal

Sistema informático inspirado en las redes neuronales biológicas del cerebro humano. Consiste en nodos interconectados (neuronas) organizados en capas que procesan la información ajustando la fuerza de las conexiones. Las redes neuronales constituyen la base del aprendizaje profundo.

Sobreajuste

Error de modelización por el que un modelo aprende los datos de entrenamiento de forma demasiado perfecta, incluidos el ruido y los valores atípicos. Un modelo sobreajustado funciona bien con los datos de entrenamiento, pero no generaliza a datos nuevos que no se han visto. Técnicas como la regularización y la validación cruzada ayudan a evitar el sobreajuste.

Bosque aleatorio

Método de aprendizaje conjunto que combina varios árboles de decisión para mejorar la precisión y controlar el sobreajuste. Cada árbol del bosque se entrena con un subconjunto aleatorio de datos y características, y la predicción final suele ser la media (para regresión) o el voto mayoritario (para clasificación) de todos los árboles.

Regularización

Conjunto de técnicas utilizadas para evitar el sobreajuste añadiendo un término de penalización a la función de pérdida que desincentiva los modelos complejos. Los métodos de regularización habituales son L1 (Lasso), L2 (Ridge), abandono y detención temprana.

Aprendizaje por refuerzo

Tipo de aprendizaje automático en el que un agente aprende a tomar decisiones realizando acciones en un entorno para maximizar las recompensas acumuladas. El agente aprende por ensayo y error, recibiendo información en forma de recompensas o penalizaciones. Este enfoque ha tenido éxito en ámbitos como los juegos y la robótica.

Máquina de vectores soporte (SVM)

Algoritmo de aprendizaje supervisado que encuentra el hiperplano óptimo para separar las distintas clases en el espacio de características. El objetivo de las SVM es maximizar el margen entre clases y, mediante el uso de funciones de núcleo, pueden realizar clasificaciones lineales y no lineales.

Aprendizaje supervisado

Paradigma de aprendizaje automático en el que los algoritmos aprenden a partir de datos de entrenamiento etiquetados. El modelo aprende a asignar entradas a salidas basándose en pares de entrada-salida de ejemplo, lo que le permite hacer predicciones sobre nuevos datos no vistos.

Datos de las pruebas

Subconjunto de datos utilizado para evaluar el rendimiento de un modelo después del entrenamiento. Estos datos se mantienen separados del proceso de entrenamiento para proporcionar una evaluación imparcial de lo bien que el modelo generaliza a nuevos ejemplos no vistos.

Datos de formación

Conjunto de datos utilizado para enseñar un modelo de aprendizaje automático. Contiene ejemplos con características y (en el aprendizaje supervisado) sus etiquetas correspondientes. La calidad, cantidad y diversidad de los datos de entrenamiento influyen significativamente en el rendimiento del modelo.

Aprendizaje por transferencia

Técnica en la que los conocimientos adquiridos mediante el entrenamiento de un modelo en una tarea se aplican a una tarea diferente pero relacionada. Este enfoque es especialmente útil cuando se dispone de datos limitados para la tarea de destino, ya que aprovecha el conocimiento preexistente de un dominio de origen.

Insuficiente

Un error de modelización en el que un modelo es demasiado simple para captar los patrones subyacentes en los datos. Un modelo poco ajustado obtiene malos resultados tanto en los datos de entrenamiento como en los de prueba. Las soluciones incluyen el uso de modelos más complejos, la adición de características o la reducción de la regularización.

Aprendizaje no supervisado

Enfoque de aprendizaje automático en el que los algoritmos identifican patrones en datos no etiquetados. Sin orientación explícita sobre qué predecir, estos modelos descubren estructuras, relaciones o agrupaciones ocultas en los datos. Las aplicaciones más comunes son la agrupación, la reducción de la dimensionalidad y la detección de anomalías.

Desviación

Medida de cuánto cambiarían las predicciones de un modelo si se entrenara con datos diferentes. Una varianza elevada indica que un modelo es demasiado sensible a las fluctuaciones de los datos de entrenamiento, lo que a menudo conduce a un ajuste excesivo. El equilibrio entre sesgo y varianza es un concepto fundamental en la selección de modelos de aprendizaje automático.


Más

¿Necesita ayuda para entender los datos y la IA? Tenemos la experiencia, las habilidades y la red para guiarle. Póngase en contacto con nosotros para empezar.

es_ESES