RTV Revisión Técnica Vehicular 8
octubre 27, 2025 | Actualizado ECT
octubre 27, 2025 | Actualizado ECT

OpenAI desarrolla una nueva herramienta capaz de generar música a partir de texto y audio

La innovadora solución permitirá a los usuarios componer melodías originales a partir de descripciones escritas o muestras de audio, según un informe de The Information.

octubre 27, 2025 | 17:59 ECT

OpenAI está desarrollando una herramienta de inteligencia artificial para componer música original. La solución aceptará prompts de texto, como descripciones de estilo, y también muestras de audio como referencia. Esto facilitará la creación de melodías, arreglos e instrumentalizaciones para videos y otros contenidos. El proyecto incluye una colaboración con la Juilliard School para entrenar la IA en musicalidad. La compañía aún no tiene fecha de lanzamiento.

La inteligencia artificial da un paso más allá en el plano creativo con el desarrollo, por parte de OpenAI, de una innovadora herramienta generativa que permite componer piezas musicales originales a partir de instrucciones escritas o fragmentos de audio. De acuerdo con un informe publicado por The Information, esta nueva solución apunta a revolucionar la creación sonora automatizada, facilitando la obtención de melodías, arreglos y acompañamientos instrumentales a partir de simples indicaciones del usuario.

Nueva herramienta de OpenAI generaría música

La apuesta actual de OpenAI por la música surge después de varios años focalizados en modelos de procesamiento de lenguaje y síntesis de voz. En esta nueva etapa, la compañía habría reactivado iniciativas previas de generación musical, pero lo hace integrando los avances recientes logrados en inteligencia artificial para el análisis y recreación sonora.

Según las fuentes citadas por The Information, la herramienta no solo aceptaría prompts de texto, como descripciones detalladas sobre el carácter o el estilo musical deseado, sino que también permitiría usar muestras de audio como referencia.

Si está interesado en licenciar este contenido contáctese con [email protected]