UPDATE
1. Conoce las tecnologías detrás
- Modelos como ElevenLabs, Respeecher o Voicemod permiten clonar voces con sorprendente precisión.
- Adobe y la Universidad de Carolina del Norte han colaborado en investigaciones que demuestran que el 70% de las personas no distingue un audio falso de uno real.
2. Métodos para detectar audios falsos
- Análisis espectral: Usa software como Audacity o iZotope RX para visualizar la forma de onda y espectrograma. Los audios generados por IA pueden tener patrones demasiado uniformes.
- Errores sutiles: Escucha pausas, entonaciones o respiraciones artificiales. Las voces clonadas a veces carecen de emoción o tienen cadencias robóticas.
- Herramientas de detección:
- para detectar deepfakes de voz.
- para verificar si una voz ha sido clonada.
3. Protección y verificación
- Autenticación de audio: Algunas plataformas están desarrollando “huellas digitales” para audios reales.
- Educación digital: Enseñar a los oyentes a ser críticos con lo que escuchan, especialmente en contextos políticos, judiciales o mediáticos.
No hace mucho escribí un post sobre la capacidad de la Inteligencia Artificial para crear o diseñar imágenes, vídeos, audio, en resumen, crear algo orgánico digno de ver. Entonces, y aún hoy, los creadores estamos a salvo del glotón de la IA que todo lo hace, toca, y cambia. Pero todo va llegando y la Inteligencia Artificial ya es capaz de emular sonidos de la vida real de manera que confunden al 70% de los humanos.
Mira este vídeo:
¡La generación de video con IA de VEO 3 es una locura con un audio perfecto! – 60 ejemplos increí…
La casa Adobe ha participado en esta investigación en colaboración con los promotores del estudio, la Universidad de Carolina del Norte, lo que significa que muy pronto softwares de edición de vídeo como Premiere podrían tener librerías de sonidos generados por IA. También esto revaloriza la importancia que adquiere el audio y el sonido en un vídeo, cosa que muchos pasan por alto en la edición de vídeos.