INFORMACIÓN DEL curso
REQUISITOS DE PARTICIPACIÓN
DESCRIPCIÓN DEL CURSO
En el curso «IA Generativa» aprenderás a aplicar la inteligencia artificial generativa en entornos profesionales. Aborda fundamentos de IA, uso de modelos de lenguaje (LLMs), técnicas de ingeniería de prompts y herramientas como RAG y LangFlow. También se exploran plataformas como Synthesia y Gamma AI para crear contenidos sin conocimientos técnicos.
Tema 01 | Introducción a la inteligencia artificial
1. Evolución y técnicas de la IA1.1. Qué es la IA y cómo está transformando el mundo.
1.2. Definición de la IA.
1.3. Machine Learning.
1.4. Deep Learning.
1.5. Procesamiento del lenguaje natural
1.6. Representación del razonamiento.
1.7. Aprendizaje por refuerzo.
1.8. IA generativa.
1.9. Potencial y limitaciones de la inteligencia artificial: una visión realista.
1.10. Principales sectores: financiero, transporte, energía, marketing, ingeniería, automoción.
2. Proyectos de IA
2.1. Consideraciones iniciales y buenas prácticas en la implementación de la IA.
2.2. Fases de desarrollo de una IA.
2.3. Roles del equipo de trabajo de desarrollo.
2.4. MLOps: optimizando la producción de IA.
3. Aspectos éticos y legales en la creación de la IA
3.1. Ética en la IA.
3.2. Los cinco pilares de la ética en la IA.
3.3. Democratización de la IA.
3.4. Ejemplos de ética en la IA.
4. Glosario.
Tema 02 | IA Generativa y Modelos de Lenguaje: Transformando la Tecnología
1. Conceptos fundamentales de la inteligencia artificial generativa
1.1. Redes neuronales artificiales (ANN)
1.2. Transformer
1.3. Atención (Attention Mechanism)
1.4. Redes generativas adversariales (GANs)
1.5. Modelos de difusión
1.6. Modelos fundacionales
1.7. Fine-Tuning
1.8. Unidad de procesamiento gráfico (GPU)
2. Hitos y características de la IA generativa
2.1. Momentos clave en la evolución de la inteligencia artificial generativa
2.2. IA generativa y sus aplicaciones
2.3. Creando imágenes con inteligencia artificial
2.4. Creando audio con inteligencia artificial
2.5. Creando video con inteligencia artificial
3. ¿Qué es un modelo de lenguaje (LLMs, Large Language Model)?
3.1. Definición y conceptos clave
3.2. Historia y evolución de los LLMs
3.3. Características y conceptos clave específicos de los LLM:
3.4. ChatGPT (OpenAI)
3.5. Gemini (Google)
3.6. Claude de Anthropic
3.7. Llama de Meta
3.8. Mistral AI
3.9. DeepSeek AI
3.10. Tendencias y perspectivas futuras en los LLM
4. Integración de modelos de lenguaje (LLMs) en aplicaciones externas
4.1. ¿Por qué integrar LLMs en aplicaciones externas?
4.2. Formas de Integración de LLMs en Aplicaciones Externas: APIs, Fine-tuning y Bibliotecas Locales
4.3. Herramientas y plataformas clave para la integración: OpenAI y Hugging Face
Tema 03 | Ingeniería de prompts para obtener resultados óptimos en los LLMs
1. Introducción a la ingeniería de prompts
1.1. ¿Qué es un prompt?
1.2. Limitaciones de los Modelos de Lenguaje ante un prompt
1.3. Ingeniería de prompts
1.4. Diseño de Prompts
1.5. Técnicas para personalizar las respuestas en un LLM: tono, estilo, formato.
2. Técnicas Fundamentales de Prompting
2.1. Zero-Shot Learning
2.2. Aprendizaje en Contexto: one-shot y few-shot
2.3. Asignación de roles al modelo (Role Prompting)
3. Técnicas avanzadas de interacción con las capacidades internas del modelo
3.1. Chain of Thoughts (Cadena de Pensamiento)
3.2. "Tree-of-Thought" (ToT, Árbol del pensamiento):
3.3. Decodificación por auto-consistencia
3.4. Generación Aumentada por Recuperación (RAG)
3.5. Optimización automatizada de prompts (Automated Prompt Optimization, APO)
3.6. Prompting multimodal: interacción con diversos tipos de datos
4. Mejores Prácticas para la Ingeniería de Prompts
4.1. Fundamentos Esenciales para Prompts Efectivos
4.2. Técnicas Avanzadas de Estructuración
4.3. Metodología Iterativa y de Refinamiento
4.4. Gestión Avanzada de Contexto
4.5. Técnicas de Aprendizaje por Ejemplos (Few-Shot Learning)
4.6. Casos de Uso Especializados
4.7. Checklist de validación preenvío
5. Evaluando la Calidad de los Prompts: La Clave para Respuestas Óptimas
5.1. Cómo Identificar y Manejar las Alucinaciones: El Control de la "Temperatura" del Modelo
5.2. Estrategias para Mitigar Alucinaciones en Modelos de Lenguaje:
5.3. Evaluando la Calidad de un Prompt: Cualitativo, Comparativo y Cuantitativo
6. Desafíos y Consideraciones Éticas en la Ingeniería de Prompts
6.1. Sensibilidad y Robustez del Prompt
6.2. Alucinaciones y Sesgos en los LLMs
6.3. Uso Indebido y Ataques de Inyección de Prompts
6.4. Equidad, Privacidad y Despliegue Responsable de la IA
Al elegir "Aceptar todas las cookies", acepta el uso de cookies para ayudarnos a brindarle una mejor experiencia de usuario y analizar el uso del sitio web. Al hacer clic en "Ajuste sus preferencias" puede elegir qué cookies permitir. Solo las cookies esenciales son necesarias para el correcto funcionamiento de nuestro sitio web y no pueden ser rechazadas
Nuestro sitio web almacena cuatro tipos de cookies. En cualquier momento puede elegir qué cookies acepta y cuáles rechaza. Puede obtener más información sobre qué son las cookies y qué tipos de cookies almacenamos en nuestra Política de cookies.
son necesarios por razones técnicas. Sin ellos, es posible que este sitio web no funcione correctamente.
son necesarios para una funcionalidad específica en el sitio web. Sin ellos, algunas funciones pueden estar deshabilitadas.
nos permite analizar el uso del sitio web y mejorar la experiencia del visitante
permítanos personalizar su experiencia y enviarle contenido y ofertas relevantes, en este sitio web y en otros sitios web