Glosario de IA
La inteligencia artificial es un campo que ha revolucionado la forma en la que las personas interactúan con la tecnología y se abordan los diferentes problemas. Esto último ha generado a lo largo del tiempo una amplia gama de nuevos términos y conceptos.
A lo largo de este artículo nos aseguraremos de comprender los términos utilizados en esta tecnología, así como en los medios. Además, es importante recalcar que algunos o muchos de estos términos están evolucionando a gran velocidad a medida que la tecnología madura y avanza, lo que significa que lo que la terminología referente puede haber cambiado en un lapso de 6 meses.
Como hemos comentado, aunque la IA es un espacio en constante cambio, es esencial que pongamos la conversación y la comprensión en primer lugar en este viaje. Nuestros trabajadores, clientes y lectores comprender las ventajas, los desafíos y el potencial de este momento.
OpenAI: OpenAI es una organización de investigación de IA que se enfoca en desarrollar una Inteligencia Artificial General (AGI) que beneficie a todos.
API de OpenAI: La API de OpenAI es un servicio que proporciona OpenAI y que permite a los desarrolladores acceder y utilizar sus modelos de IA, como ChatGPT, para varias aplicaciones.
GPT (Transformador Preentrenado Generativo): GPT se refiere a una serie de modelos de IA desarrollados por OpenAI. Fueron diseñados para realizar tareas de procesamiento de lenguaje natural y son capaces de generar texto coherente y contextualmente relevante.
Embedding: Es un tipo de mecanismo de atención que se usa en transformadores y que le permite a un modelo relacionar las diferentes posiciones de una misma secuencia.
Prompt: Son textos de entrada que se le dan a un modelo de lenguaje para generar una respuesta o completar una tarea específica.
Zero-shot Learning: Es un enfoque de aprendizaje automático en el que un modelo puede hacer predicciones, o completar tareas, sin estar explícitamente capacitado en los datos de esa tarea.
Few-shot Learning: Es un enfoque de aprendizaje automático en el que un modelo puede adaptarse rápidamente a nuevas tareas, aprendiendo de una pequeña cantidad de ejemplos etiquetados.
Aprendizaje por Refuerzo a partir de la Retroalimentación Humana (RLHF): Este método combina el aprendizaje por refuerzo con la retroalimentación humana, y eso permite que los modelos de IA aprendan y se adapten a las preferencias y valores del hombre.
Deep Learning: Se refiere a un subcampo del aprendizaje automático que utiliza redes neuronales artificiales para modelar patrones complejos, y hacer predicciones, o tomar decisiones basadas en los datos de entrada.
Aprendizaje sin supervisión: El aprendizaje no supervisado es un enfoque de aprendizaje automático en el que un modelo aprende patrones y estructuras dentro de los datos de entrada, sin etiquetas de salida explícitas. (Generalmente tras la agrupación en clústeres o la reducción de la dimensionalidad).
Aprendizaje supervisado: Sucede cuando un modelo se entrena dentro de un conjunto de datos que contiene pares de entrada y salida. Este aprendizaje es capaz de predecir salidas en función de nuevas entradas.
BERT (Representaciones de Codificador Bidireccional de Transformadores): BERT es un modelo basado en un transformador preentrenado, desarrollado por Google, para ejecutar tareas de comprensión del lenguaje natural. Se puede ajustar para aplicaciones específicas.
ChatGPT: Es un modelo de IA conversacional desarrollado por OpenAI. Está basado en la arquitectura GPT y ha sido diseñado para generar respuestas similares a las humanas en conversaciones basadas en texto.
Stable difusion: La difusión estable es un área de investigación centrada en mejorar el entrenamiento de modelos de IA a gran escala, mediante la introducción de estabilidad y capacidad de control durante el proceso de difusión.
Ingeniería rápida: Se refiere al proceso de diseñar avisos efectivos para obtener las respuestas deseadas de los modelos de lenguaje, mejorando su utilidad y confiabilidad.
InstructGPT: Es un modelo de IA desarrollado por OpenAI para seguir instrucciones dadas en avisos. Eso le permite generar respuestas más precisas y específicas para cada tarea.
Inteligencia Artificial General (AGI): La AGI, por sus siglas en inglés, se refiere a una IA hipotética, capaz de realizar cualquier tarea intelectual que también pueda ser llevada a cabo por un ser humano. Esta IA demuestra habilidades cognitivas similares a las humanas en diversos dominios.
LaMDA: Es el modelo de IA conversacional de Google. Fue diseñado para participar en conversaciones de dominio abierto y es capaz de comprender y generar respuestas para una amplia variedad de temas.
Mecanismo de atención: Los mecanismos de atención en las redes neuronales permiten que los modelos sopesen la importancia de diferentes elementos de entrada entre sí, mejorando su capacidad de procesar el contexto.
Modelos de difusión: Estos modelos representan la difusión de la información, influencia u otros fenómenos a través de una red.
LLM (Large Language Models): Son modelos de IA entrenados en grandes cantidades de datos de texto, capaces de comprender y generar texto similar al humano.
Preentrenamiento: Es la fase inicial de entrenamiento de un modelo de aprendizaje profundo en un gran conjunto de datos (a menudo sin supervisión).
Problema de alineación: El problema de alineación se refiere al desafío de diseñar sistemas de IA que entiendan y actúen sobre las intenciones, valores y objetivos humanos, en lugar de ser optimizados con objetivos no deseados.
Procesamiento del lenguaje natural (PNL): La PNL es un campo de la IA que permite que las computadoras comprendan, interpreten y generen lenguaje humano.
Red neuronal artificial: Una red neuronal artificial es un modelo computacional inspirado en la estructura y la función del cerebro humano. Consta de nodos interconectados, llamados neuronas, que procesan y transmiten información.
Retropropagación: Es un algoritmo de optimización ampliamente utilizado en redes neuronales que minimiza el error entre las salidas predichas, y las salidas reales, ajustando los pesos del modelo.
Fine tuning: Es el proceso de adaptar un modelo previamente entrenado para una tarea específica. Se usan datos etiquetados que guardan relación con esa tarea y de esa forma se refina su desempeño.
Transformador: Es una arquitectura de aprendizaje profundo que permite completar tareas secuencia a secuencia. Es ampliamente conocida por su mecanismo de auto atención, el cual permite capturar dependencias de largo alcance en los datos.
Token: Un token es una unidad de texto, como una palabra o subpalabra, que sirve como entrada en un modelo de lenguaje.
Ventana de contexto: Es el número máximo de tókenes que un modelo de lenguaje puede procesar en un solo paso, lo que determina su capacidad para capturar el contexto en los datos de entrada.