Rasca la imagen para llevarte un descuento en tu curso. Podrás aplicar el cupón en el momento de pago.

283
Bienvenidos al curso de LLMs e IA Generativa
Arrancamos en frío: El salto a la ingeniería de LLM
Configurando Ollama: Ejecuta tu primer LLM localmente en MacOS
Configurando Ollama: Ejecuta tu primer LLM localmente en Windows
Explorando Ollama y Creando un Tutor para aprender Idiomas
Cómo sacarle el máximo partido al curso
Tu cuaderno para tomar notas online sobre el curso
Página de recursos adicionales del curso
Semana 1 - Día 1
Día 1 - Dominando la ingeniería de LLM: desde lo básico hasta dominar GPT-4 en 8 semanas
Día 1 - Proyectos Comerciales y Ejercicios: Aplicando tus habilidades
Día 1 - Conoce a tus instructores del curso: Juan Gabriel Gomila y Ed Donner
Día 1 - Iniciando la configuración de tu entorno para LLM
El repositorio Github del curso
Día 1 - Iniciando en la IA generativa: primeros pasos para configurar un proyecto de LLM en MacOS
Día 1 - Iniciando en la IA generativa: primeros pasos para configurar un proyecto de LLM en Windows
Día 1 - Configuración Alternativa: Utilizar virtualenv para crear un entorno virtual en Python
Día 1 - Configuración de la API de OpenAI: conexión a modelos fronterizos potentes
Día 1 - Creación de un archivo .env para almacenar claves API de forma segura
Día 1 - Ejecución de JupyterLab para proyectos de codificación interactiva
Día 1 - Construir un resumen de una pagina web con OpenAI GPT-4: gratificación instantánea
Día 1 - Conclusiones del Día 1: Principales conclusiones y próximos pasos en Ingeniería de LLMs
Semana 1 - Día 2
Día 2 - Recapitulación y resumen del día: Aprovechar los logros del primer día
Día 2 - Explorando los LLMs Frontera de vanguardia: Chat GPT, Claude, Gemini y más
Día 2 - Ejercicio: Usar Python para llamar a Ollama localmente para realizar resúmenes
Día 2 - Conclusión: Resumen comparado con OpenAI y Ollama
Semana 1 - Día 3
Día 3 - LLMs Frontera explorando fortalezas y debilidades del top de modelos en IA generativa
Día 3 - Comparando modelos LLMs: fortalezas y aplicaciones comerciales
Día 3 - Explorando GPT-4o vs O1-preview: Diferencias clave en rendimiento
Día 3 - Creatividad y programación: aprovechando la función Canvas de GPT-4o
Día 3 - Claude AI: Explorando posibilidades y limitaciones del modelo Frontera
Día 3 - Perspectivas de Gemini vs Cohere: Fortalezas y limitaciones
Día 3 - Evaluación de la Meta AI y Perplexity: matices de los resultados del modelo
Día 3 - Comparando el top de modelos de IA: GPT-4, Claude y Gemini en una batalla por el liderazgo
Semana 1 - Día 4
Día 4 - Batalla por el liderazgo en IA: Analizando discursos de GPT-4, Claude-3 y Gemini-1.5
Día 4 - Explorando el viaje de la IA: desde los primeros modelos hasta los transformadores
Día 4 - Comprensión de los parámetros LLM: desde los pesos hasta la complejidad del modelo
Día 4 - Explicación de los tokens: los componentes básicos de la entrada y la salida de LLM
Día 4 - La ventana de contexto: cómo gestionar la duración de una conversación en los LLM
Día 4 - Los costes de la API desmitificados: presupuesto para tus proyectos de LLM
Día 4 - Comparación de los costes del modelo y las capacidades de la ventana de contexto
Día 4 - Conclusiones clave y conocimientos prácticos
Semana 1 - Día 5
Día 5 - Inicio Día 5: Descripción general y objetivos del proyecto de generación de un folleto
Día 5 - De regreso a JupyterLab: preparación para el proyecto del folleto comercial
Día 5 - Recopilación de información de enlaces web mediante LLM
Día 5 - Creación y formato de respuestas para el contenido del folleto
Día 5 - Ajustes finales: optimización de Markdown y streaming en JupyterLab
Día 5 - Desafío: Mejorar el proyecto con multi-shot prompting
Día 5 - Tarea: Desarrollar un tutor personalizado basado en el LLM
Día 5 - Tarea: Desarrollar un tutor personalizado basado en el LLM
Día 5 - Resumen de la semana 1: logros y próximos pasos
Semana 2 - Día 1
Día 1 - Dominando multiples APIs de IA: OpenAI, Claude y Gemini para ingenieros de LLM
Día 1 - Configurar las claves de API de Google y de Anthropic
Día 1 - Streaming de respuestas de IA: implementando salida de LLMs en tiempo real en Python con GPT
Día 1 - Streaming de respuestas de IA: implementando salida de LLMs en tiempo real en Python con Claude
Día 1 - Streaming de respuestas de IA: implementando salida de LLMs en tiempo real en Python con Gemini
Día 1 - Como crear conversaciones de IA adversativa usando las APIs de OpenAI y Claude
Día 1 - Herramientas de IA: Explorando Transformers y LLMs Frontera para desarrolladores
Semana 2 - Día 2
Día 2 - Construyendo Interfaces de IA con Gradio: Prototipado rápido para ingenieros de LLM
Día 2 - Tutorial de Gradio: Creando interfaces interactivas de IA para modelos GPT de OpenAI
Día 2 - Implementando respuestas streaming con GPT y Claude en Gradio UI
Día 2 - Creando una interfaz para chat de IA Multi-Modelo con Gradio: GPT vs Claude
Día 2 - Creando interfaces de usuario para IA avanzadas: de la API de OpenAI a interfaces chat con Gradio
Semana 2 - Día 3
Día 3 - Crear ChatBots de IA: Dominando Gradio para asistentes de atención al cliente
Día 3 - Crear un ChatBot de IA conversacional con OpenAI y Gradio paso a paso
Día 3 - Mejorar los ChatBots con Prompting Multi-Shot y contexto enriquecido
Día 3 - Dominando las herramientas de IA: Mejorando los LLMs para ejecutar código en tu ordenador
Semana 2 - Día 4
Día 4 - Usar herramientas de IA con LLMs mejorando las posibilidades de los modelos de grandes lenguajes
Día 4 - Crear un asistente de IA para una aerolínea: Implementando herramientas con GPT-4 de OpenAI
Día 4 - Como equipar las LLMs con herramientas personalizadas: Tutorial para llamar funciones en OpenAI
Día 4 - Dominando herramientas de IA: Crear asistentes avanzados con LLMs mejorados a través es de APIs
Semana 2 - Día 5
Día 5 - Asistentes de IA Multi-Modales: Integrando generaciones de imagen y sonido
Día 5 - IA Multi-Modal: Integrando generaciones de imágenes con DALL-E 3 en JupyterLab
Día 5 - IA Multi-Modal: Integrando generaciones de audio con tts en JupyterLab
Día 5 - Crear un agente con IA Multi-Modal: Integrando herramientas de imagen y sonido
Día 5 - Como construir un asistente de IA Multi-Modal: Integrando herramientas y agentes
Día 5 - Tarea: Desarrollar un asistente multimodal
Semana 3 - Día 1
Día 1 - Tutorial de HuggingFace: Explorando modelos de IA y conjuntos de datos de código abierto
Día 1 - Explorando HuggingFace Hub: Modelos, DataSets y espacios para desarrolladores de IA
Día 1 - Introducción a Google Colab: Notebooks de Jupyter en la nube para Machine Learning
Día 1 - Integración de HuggingFace con Google Colab: Configurar claves de API y Secretos
Día 1 - Dominando Google Colab: Ejecutar modelos de IA de código abierto con HuggingFace
Día 2 - Transformers de HuggingFace: usando Pipelines para tareas de IA en Python
Semana 3 - Día 2
Día 2 - Pipelines de HuggingFace: Simplificar tareas de IA con la librería de Transformers
Día 2 - Dominando los Pipelines de HuggingFace: Inferencia efectiva de IA para tareas de ML
Semana 3 - Día 3
Día 3 - Explorando los Tokenizadores en IA de código abierto: Llama, Phi-3, Qwen y StarCoder
Día 3 - Accediendo a los modelos de código abierto de Meta Llama
Día 3 - Técnicas de tokenización en IA: Usando Autotokenizadores con Modelos Llama 3.1
Día 3 - Comparando Tokenizadores: Llama, Phi-3 y Qwen2 para modelos de IA de código abierto
Día 3 - Tokenizadores de HuggingFace: Preparación para generación de texto mediante IAs avanzadas
Semana 3 - Día 4
Día 4 - Clases de modelos de HuggingFace: Ejecutando inferencia en modelos de IA open source
Día 4 - Transformers en HuggingFace: Carga y Cuantificación de LLMs con Bits y Bytes
Día 4 - Transformers de HuggingFace: Generación de chistes con modelos de IA de código abierto
Día 4 - Dominando los transformers de HuggingFace: Modelos, Pipelines y Tokenizadores
Día 5 - Combinando Fronteras y Modelos de código abierto para resúmenes de audio a texto
Día 5 - Usando HuggingFace y OpenAI para generación de actas de reunión mejoradas con IA
Día 5 - El resultado de la transcripción del acta a español
Día 5 - Construir un generador de datos de pruebas sintéticos: Modelos de IA de código abierto aplicado a negocios
Día 5 - Tarea: Desarrollar un tutor personalizado basado en el LLM
Semana 4 - Día 1
Día 1 - Como elegir el LLM adecuado: Comparando modelos de código abierto y cerrado
Día 1 - Ley del escalado Chinchilla: Optimizar parámetros de un LLM y tamaño de los datos de entrenamiento
Día 1 - Limitaciones de los Benchmarks de LLMs: Overfitting y Leakage de datos de entrenamiento
Día 1 - Evaluar modelos de grandes lenguajes: Desvelando 6 Benchmarks de siguiente nivel
Día 1 - Ranking de modelos LLM de HuggingFace: Comparando modelos de lenguaje de código abierto
Día 1 - Dominando los rankings de LLMs: Comparación de los modelos de código abierto y cerrado
Semana 4 - Día 2
Día 2 - Comparando LLMs: Top 6 de rankings para evaluar modelos de lenguaje
Día 2 - Rankings de LLMs especializados: Encontrar el mejor modelo para tu caso práctico
Día 2 - Llama vs GPT-4: Benchmarking de LLMs para la generación de código
Día 2 - Modelo de lenguajes evaluados por humanos: Comprendiendo la LM Sys ChatBot Arena
Día 2 - Aplicaciones comerciales de modelos de grandes lenguajes: Del derecho a la educación
Día 2 - Comparando Frontera con LLMs de código abierto para proyectos de conversion de código
Semana 4 - Día 3
Día 3 - Implementando el uso de modelos Frontera para generación de código altamente deficiente en C++
Día 3 - Comparando el top de LLMs para generación de código: GPT-4 vs Claude 3.5 Sonnet
Día 3 - Optimización de código en Python mediante LLMs: GPT-4 vs Claude 3.5
Día 3 - Errores en la generación de códigos: Cuando los modelos de grandes lenguajes producen errores
Día 3 - Generación rápida de código eficiente: Como Claude supera a Python en 60.000x
Día 3 - Construir una interfaz con Gradio para la generación de código mediante LLMs
Día 3 - Optimizar la generación de código en C++: Comparar la eficiencia de GPT con Claude
Día 3 - Comparando GPT-4 y Claude para la generación de código: Benchmarks de eficiencia
Semana 4 - Día 4
Día 4 - LLMs de código abierto para generación de código: Explorando los EndPoints de HuggingFace
Día 4 - Como usar los EndPoints de inferencia de HuggingFace para modelos de generación de código
Día 4 - Integrando modelos de código abierto con LLMs Frontera para generación de código
Día 4 - Comparar la generación de código: LLMs de GPT-4, Claude y CodeQwen
Día 4 - Dominar la generación de códigos con LLMs: Técnicas y selección de modelos
Semana 4 - Día 5
Día 5 - Evaluar la eficiencia de los LLMs: Métricas centradas en el modelo vs centradas en el negocio
Día 5 - Dominando la generación de código mediante LLMs: Retos avanzados para desarrolladores de Python
Día 5 - Tarea: Soluciones de generación de código mediante LLMs
Semana 5 - Día 1
Día 1 - Fundamentos de RAG: Aprovechar datos externos para mejorar las respuestas de LLM
Día 1 - Construcción de un sistema RAG casero: implementación de la generación aumentada por recuperación
Día 1 - Comprensión de las incrustaciones vectoriales: la clave para la recuperación de RAG y LLM
Semana 5 - Dia 2
Día 2 - Presentación de LangChain: simplifique la implementación de RAG para aplicaciones LLM
Día 2 - Tutorial de divisor de texto LangChain: optimización de fragmentos para sistemas RAG
Día 2 - Preparación para bases de datos vectoriales: incrustaciones de OpenAI y Chroma en RAG
Semana 5 - Día 3
Día 3 - Dominio de las incrustaciones vectoriales: OpenAI y Chroma para Ingeniería de LLM
Día 3 - Visualización de incrustaciones: exploración del espacio multidimensional con t-SNE
Día 3 - Creación de pipelines RAG: de vectores a incrustaciones con LangChain
Semana 5 - Día 4
Día 4 - Dominio de la generación aumentada por recuperación: integración práctica de LLM
Día 4 - Implementación de RAG Pipeline: LLM, Retriever y Memory en LangChain
Día 4 - Domina el Pipeline de RAG: construcción de sistemas RAG eficientes
Semana 5 - Día 5
Día 5 - Optimización de sistemas RAG: solución de problemas y reparación de problemas comunes
Día 5 - Cambio de almacenes de vectores: FAISS vs Chroma en los pipelines RAG de LangChain
Día 5 - Desmitificando LangChain: detrás de escena de la construcción del pipeline RAG
Día 5 - Depuración de RAG: optimización de la recuperación de contexto en LangChain
Día 5 - Desarrolla tu propio trabajador de conocimiento basado en inteligencia artificial: RAG para aumentar la productividad
Día 5 - Tarea: Desarrollar un trabajador de conocimiento basado en RAG
Semana 6 - Día 1
Día 1: Ajuste fino de modelos de lenguaje grandes: de la inferencia al entrenamiento
Día 1: Búsqueda y elaboración de conjuntos de datos para el ajuste fino del LLM: fuentes y técnicas
Día 1: Técnicas de curación de datos para perfeccionar los LLM en las descripciones de productos
Día 1 - Optimización de los datos de entrenamiento: técnicas de depuración para el ajuste fino de LLM
Día 1 - Evaluación del desempeño de LLM: Métricas centradas en el modelo y métricas centradas en el negocio
Semana 6 - Día 2
Día 2 - Proceso de implementación de LLM: del problema empresarial a la solución de producción
Día 2 - Prompting, RAG y ajuste fino: cuándo utilizar cada enfoque
Día 2: Producción de LLM: mejores prácticas para implementar modelos de IA a escala
Día 2: Optimización de grandes conjuntos de datos para el entrenamiento de modelos: estrategias de curación de datos
Día 2 - Cómo crear un conjunto de datos equilibrado para la formación de LLM: técnicas de curación
Día 2: Finalización de la curación de conjuntos de datos: análisis de las correlaciones entre precio y descripción
Día 2: Cómo crear y cargar un conjunto de datos de alta calidad en HuggingFace
Semana 6 - Día 3
Día 3 - Ingeniería de características y Bag of Words: creación de líneas base de ML para NLP
Día 3 - Modelos de referencia en ML: implementación de funciones de predicción simples
Día 3 - Técnicas de ingeniería de características para modelos de predicción de precios de productos de Amazon
Día 3 - Optimización del rendimiento de LLM: estrategias avanzadas de ingeniería de funciones
Día 3 - Regresión lineal para el ajuste fino del LLM: comparación del modelo de referencia
Día 3 - Bag Of Words NLP: Implementación de Count Vectorizer para análisis de texto en ML
Día 3 - Regresión de vectores de soporte frente a bosque aleatorio: comparación de aprendizaje automático
Día 3 - Comparación de modelos ML tradicionales: de modelos aleatorios a modelos de bosque aleatorio
Semana 6 - Día 4
Día 4 - Evaluación de modelos de frontera: comparación del rendimiento con los marcos de referencia
Día 4 - Humanos vs. IA: evaluación del rendimiento de la predicción de precios en modelos Frontier
Día 4 - GPT-4o Mini: Evaluación del modelo de inteligencia artificial de Frontier para tareas de estimación de precios
Día 4 - Comparación de GPT-4 y Claude: Rendimiento del modelo en tareas de predicción de precios
Día 4 - Capacidades de inteligencia artificial de vanguardia: los LLM superan a los modelos de ML tradicionales
Semana 6 - Día 5
Día 5 - Afinando los LLM con OpenAI: preparación de datos, capacitación y evaluación
Día 5 - Cómo preparar archivos JSONL para ajustar modelos de lenguaje grandes (LLM)
Día 5 - Guía paso a paso: Cómo iniciar trabajos de ajuste fino de GPT con la API de OpenAI
Día 5 - Ajuste fino de los LLM: seguimiento de la pérdida y el progreso del entrenamiento con pesas y sesgos
Día 5 - Evaluación de métricas LLM optimizadas: análisis de la pérdida de capacitación y validación
Día 5 - Desafíos de ajuste fino de LLM: cuando el rendimiento del modelo no mejora
Día 5 - Perfeccionamiento de los LLM de vanguardia: desafíos y mejores prácticas para la optimización
Semana 7 - Día 1
Día 1 - Dominar el ajuste fino de parámetros de forma eficiente: LoRa, QLoRA e hiperparámetros
Día 1 - Introducción a los adaptadores LoRA: explicación de la adaptación de bajo rango
Día 1 - QLoRA: cuantificación para un ajuste fino y eficiente de modelos de lenguajes grandes
Día 1 - Optimización de LLM: módulos R, Alpha y Target en QLoRA
Día 1 - Ajuste fino de parámetros eficientes: PEFT para LLM con Hugging Face
Día 1 - Cómo cuantificar LLM: reducción del tamaño del modelo con precisión de 8 bits
Día 1 - Doble cuantificación y NF4: técnicas avanzadas para la optimización LLM de 4 bits
Día 1 - Exploración de los modelos PEFT: el papel de los adaptadores LoRA en el ajuste fino de LLM
Día 1 - Resumen del tamaño del modelo: comparación de modelos cuantificados y ajustados
Semana 7 - Día 2
Día 2 - Cómo elegir el mejor modelo base para ajustar modelos de lenguajes grandes
Día 2 - Selección del mejor modelo base: análisis del ranking LLM de HuggingFace
Día 2 - Exploración de tokenizadores: comparación de LLAMA, QWEN y otros modelos LLM
Día 2 - Optimización del rendimiento de LLM: carga y tokenización del modelo base de Llama 3.1
Día 2 - Impacto de la cuantificación en los LLM: análisis de métricas de rendimiento y errores
Día 2 - Comparación de LLM: GPT-4 vs LLAMA 3.1 en ajuste de parámetros eficiente
Semana 7 - Día 3
Día 3 - Hiperparámetros de QLoRA: Cómo dominar el ajuste fino para modelos de lenguaje de gran tamaño
Día 3 - Comprensión de las épocas y los tamaños de lote en el entrenamiento de modelos
Día 3 - Explicación de la tasa de aprendizaje, la acumulación de gradientes y los optimizadores
Día 3 - Configuración del proceso de entrenamiento para el ajuste fino
Día 3 - Configuración de SFTTrainer para el ajuste fino de LLM con LoRA cuantificado de 4 bits
Día 3 - Afinando los LLM: Lanzamiento del proceso de entrenamiento con QLoRA
Día 3 - Seguimiento y gestión del entrenamiento con Weights & Biases
Semana 7 - Día 4
Día 4 - Mantener bajos los costos de capacitación: estrategias eficientes de ajuste fino
Día 4 - Ajuste fino eficiente: uso de conjuntos de datos más pequeños para el entrenamiento de QLoRA
Día 4 - Visualización del progreso del ajuste fino de LLM con gráficos de Weights and Biases
Día 4 - Herramientas avanzadas de Weights & Biases y ahorro de modelos en Hugging Face
Día 4 - Ajuste fino de LLM de extremo a extremo: desde la definición del problema hasta el modelo entrenado
Semana 7 - Día 5
Día 5 - Los cuatro pasos del entrenamiento LLM: desde el pase hacia adelante hasta la optimización
Día 5 - Proceso de entrenamiento de QLoRA: Pase hacia adelante, pase hacia atrás y cálculo de pérdidas
Día 5 - Comprensión de Softmax y pérdida de entropía cruzada en el entrenamiento de modelos
Día 5 - Seguimiento del ajuste fino: Weights & Biases para el análisis del entrenamiento de LLM
Día 5 - Revisitando el podio: Comparando las métricas de desempeño del modelo
Día 5 - Evaluación de nuestro LLM patentado y perfeccionado en relación con métricas comerciales
Día 5 – Visualización de resultados: ¿Vencimos a GPT-4?
Día 5 - Ajuste de hiperparámetros para LLM: mejora de la precisión del modelo con PEFT
Semana 8 - Día 1
Día 1 - Del ajuste fino a los sistemas multiagente: Ingeniería LLM de siguiente nivel
Día 1 - Creación de una arquitectura de IA multiagente para sistemas automatizados de búsqueda de ofertas
Día 1 - Presentación de Modal: Implementación de modelos sin servidor en la nube
Día 1 - LLAMA en la nube: Ejecución eficiente de modelos grandes
Día 1 - Creación de una API de precios de IA sin servidor: guía paso a paso con Modal
Día 1 - Múltiples modelos de producción por delante: preparación para soluciones RAG avanzadas
Semana 8 - Día 2
Día 2 - Implementación de flujos de trabajo de Agentic: modelos de frontera y almacenes de vectores en RAG
Día 2 - Creación de un masivo almacén de datos de vectores con Chroma para pipelines RAG avanzados
Día 2 - Visualización de espacios vectoriales: técnicas avanzadas de RAG para la exploración de datos
Día 2 - Técnicas de visualización 3D para RAG: exploración de incrustaciones vectoriales
Día 2 - Búsqueda de productos similares: creación de una cadena de suministro RAG sin LangChain
Día 2 - Implementación de la canalización RAG: mejora de los LLM con técnicas de recuperación
Día 2 - Regresión de bosque aleatorio: uso de transformadores y aprendizaje automático para la predicción de precios
Día 2 - Construcción de un modelo de conjunto: combinación de LLM, RAG y Random Forest
Día 2 - Resumen: Finalización de los sistemas multiagente y la integración de RAG
Semana 8 - Día 3
Día 3 - Mejorar los agentes de IA con resultados estructurados: guía de Pydantic y BaseModel
Día 3 - Rastreo de feeds RSS: creación de un sistema de selección de ofertas basado en inteligencia artificial
Día 3 - Resultados estructurados en IA: implementación de GPT-4 para la selección detallada de acuerdos
Día 3 - Optimización de los flujos de trabajo de IA: perfeccionamiento de las indicaciones para un reconocimiento preciso de los precios
Día 3 - Dominar los agentes autónomos: diseño de flujos de trabajo de IA con múltiples agentes
Semana 8 - Día 4
Día 4 - Las 5 características de la IA agente: autonomía, planificación y memoria
Día 4 - Creación de un sistema de IA con agentes: integración de Pushover para notificaciones
Día 4 - Implementación de Agentic AI: creación de un agente de planificación para flujos de trabajo automatizados
Día 4 - Creación de un marco de agente: conexión de LLM y código Python
Día 4 - Completar flujos de trabajo de Agentic: escalabilidad para aplicaciones empresariales
Semana 8 Día 5
Día 5 - Agentes autónomos de IA: creación de sistemas inteligentes sin intervención humana
Día 5 - Agentes de IA con Gradio: técnicas avanzadas de interfaz de usuario para sistemas autónomos
Día 5 - Finalización de la interfaz de usuario de Gradio para nuestra solución de inteligencia artificial Agentic
Día 5 - Mejora de la interfaz de usuario del agente de IA: integración de Gradio para la visualización de registros en tiempo real
Día 5 - Análisis de resultados: supervisión del rendimiento del marco del agente
Día 5 - Retrospectiva del proyecto de IA: viaje de 8 semanas para convertirse en ingeniero con título de maestría en derecho
Te espero en LinkedIn
Hemos terminado una aventura juntos, ¡pero vamos a por la siguiente!

instructor

PLANES PARA ACCEDER SEGÚN TUS OBJETIVOS Y NECESIDADES

Compra el curso individual, obtén toda la ruta de aprendizaje o accede a toda la plataforma

Elige la forma de pago que mejor se adapte a tus necesidades y a tu bolsillo con pago único por curso, acceso mensual o anual a la ruta de aprendizaje o incluso a toda la plataforma.

Pago Único

Compra el curso una vez y accede de por vida

99.99

  • Un único pago
  • Acceso instantáneo al curso de por vida
  • Accede a la comunidad del curso
El Más
Popular

Rana de Bronce

Accede a todos los cursos, comunidades y extras de Frogames

39 /mes

  • Pago único de 39€ al mes
  • Acceso instantáneo a todos los cursos
  • Accede a la plataforma y las comunidades 24 / 7, dónde y cuándo quieras
  • Cancela en cualquier momento sin perder tu progreso

Ruta de Inteligencia Artificial

Accede a todos los cursos de la Ruta de Inteligencia Artificial

19.99 /mes

  • Pago único de 19.99€ al mes
  • Acceso instantáneo a los +10 cursos de la ruta
  • Accede a la ruta 24 / 7, dónde y cuándo quieras
  • Cancela en cualquier momento sin perder tu progreso

Pago único

Compra el curso una vez y accede de por vida

99.99

  • Un único pago
  • Acceso instantáneo al curso de por vida
  • Accede a la comunidad del curso
El Más
Valorado

Rana de Oro

Accede a todos los cursos, comunidades y extras de Frogames

349 /año

  • Pago único de 349€ al año
  • 3 meses de descuento
  • Acceso instantáneo a todos los cursos
  • Accede a la plataforma y las comunidades 24 / 7, dónde y cuándo quieras
  • Cancela en cualquier momento sin perder tu progreso
  • Biblioteca de Recursos
  • Directos mensuales de Q&A
  • Soporte premium

Ruta de Inteligencia Artificial

Accede a todos los cursos de la Ruta de Inteligencia Artificial

199 /año

  • Pago único de 199€ al año
  • 4 meses de descuento
  • Acceso instantáneo a los +10 cursos de la ruta
  • Accede a la ruta 24 / 7, dónde y cuándo quieras
  • Cancela en cualquier momento sin perder tu progreso
  • Soporte premium

* Todos los precios llevan impuestos incluidos.

Por tu seguridad, todos los pedidos se procesarán en un servidor seguro.

Ruta de Inteligencia Artificial

El pack definitivo con todos nuestros cursos de Inteligencia Artificial para dominar los algoritmos más actuales y modernos. Incluye los cursos que están por venir y las actualizaciones y mejoras de los actuales

Machine Learning de la A a la Z

Aprende a programar más de 40 algoritmos de Machine Learning tanto en Python como en R con los expertos en Data Science. ¡Con todo el código fuente y un libro de regalo incluido! ¡Más de 50 horas de videotutoriales para ayudarte a dominar el ML!

299 clases

Inteligencia Artificial Moderna con Cero Código

Crea 5 proyectos prácticos y desata el poder de la Inteligencia Artificial para resolver problemas de empresas reales sin necesidad de programar ni una sola línea de código

78 clases

Deep Learning de la A a la Z

Aprende a crear algoritmos de aprendizaje profundo en Python con los expertos en aprendizaje automático y ciencia de datos

182 clases

Deep Learning con Tensorflow 1.x para Machine Learning e IA

Aprende las bases de TensorFlow en Python para programar tus algoritmos de Machine Learning e Inteligencia Artificial con ejemplos prácticos del mundo real en diferentes campos

149 clases

Guía completa para el nuevo Tensorflow 2.0 en Python

Crea soluciones sorprendentes de Deep Learning e Inteligencia Artificial y súbelas a producción con TensorFlow 2.0, la actualización más poderosa del framework de redes neuronales de Python

140 clases

Inteligencia Artificial aplicada a Negocios y Empresas

Aprende a aplicar los algoritmos de Machine Learning e Inteligencia Artificial con Python en los tres aspectos más importantes del negocio: optimización de procesos, minimización de gastos y maximización de beneficios

122 clases

Inteligencia Artificial y Big Data con Power BI web services

En este curso aprenderemos a crear flujos de datos en el servicio web de Power BI, le agregaremos análisis de Inteligencia Artificial con el uso de Cognitive Services y mucho más

45 clases

Aprendizaje por Refuerzo Profundo 2.0

La combinación más inteligente de Deep Q-Learning, Políticas de Gradiente, Actor-Crítico y DDPG utilizando PyTorch

58 clases

Masterclass en Inteligencia Artificial: con Proyectos Reales

Desata el poder de la IA para resolver problemas prácticos, del mundo real en Finanzas, Tecnología, Arte y Salud

97 clases

Curso completo de Inteligencia Artificial con Python

Combina el poder de los datos, Reinforcement Learning, Q-Learning y Deep Learning para crear inteligencias artificiales en contextos reales con OpenAI Gym

142 clases

Masterclass en Inteligencia Artificial

Entra en la nueva era de los modelos híbridos de Inteligencia Artificial optimizados por la Neuroevolución Profunda y las estrategias evolutivas

82 clases

Ingeniería de LLM: Domina la IA Generativa y los Modelos de lenguaje de gran tamaño (LLM)

Conviértete en un Ingeniero LLM en 8 semanas: Construye y despliega 8 aplicaciones de Grandes Modelos Lingüísticos, dominando la IA Generativa y los conceptos teóricos clave

283 clases

Procesamiento del Lenguaje Natural Moderno en Python

Resuelve problemas de análisis de texto y NLP de Seq2Seq y clasificación utilizando los Transformer y las Redes Neuronales mediante la librería Tensorflow 2 en Google Colab

49 clases

Aprende BERT, el algoritmo de NLP más avanzado de Google

Comprende a fondo y aplica en Python el algoritmo revolucionario de Google en el campo de NLP en tareas reales como crear un sistema de respuestas automático basado en texto.

47 clases