El avance de la inteligencia artificial ha abierto puertas a la innovación, pero también, lamentablemente, a nuevas formas de ilegalidad. Un preocupante caso reciente ha salido a la luz en Medellín, donde la imagen y la voz del alcalde Federico Gutiérrez fueron alteradas digitalmente para un video que busca engañar a la ciudadanía. El propio mandatario tuvo que recurrir a su cuenta oficial de X para desmentir la información y alertar sobre la estafa.
Según la denuncia de Federico Gutiérrez, está circulando un video falso en el que sus palabras han sido manipuladas para hacer creer que está recomendando invertir en una pirámide financiera. “Por ahí está circulando un video, al que le están pagando inclusive platica, publicidad, un video absolutamente falso, en el que utilizan mi imagen, y alteran la voz con inteligencia artificial, supuestamente donde yo invito a invertir en una pirámide financiera, eso es absolutamente falso”, declaró el alcalde, enfatizando la gravedad del engaño.
Más noticias: David González se lavó las manos pese a la molestia de los hinchas de Millonarios; aseguró que será campeón
Los inescrupulosos detrás de esta estafa no solo utilizaron la imagen de Gutiérrez. También incluyeron en el material audiovisual la imagen de David Vélez, fundador y dueño de Nu Bank, cuya voz también fue distorsionada a través de la tecnología de IA. Esta estrategia busca dar mayor credibilidad al fraude, aprovechando la figura de líderes reconocidos en el ámbito público y empresarial.
La alerta del alcalde: No caiga en engaños con IA y denuncie
Una de las principales preocupaciones del alcalde Federico Gutiérrez radica en la estrategia de difusión de los estafadores. El contenido audiovisual está siendo impulsado con publicidad pagada en redes sociales, lo que le permite tener un alcance masivo y llegar a un público más amplio. Por ello, el mandatario hizo un llamado urgente a la ciudadanía para que “no caiga” en esta información falsa y potencialmente ruinosa.
“También utilizan la imagen de David Vélez, gran empresario colombiano, de Nubank, donde también alteran su voz con inteligencia artificial, no se dejen confundir, ojo con eso. Si les llega, por favor, denúncienlo, eso es falso, y ojo que le están metiendo plata para temas de publicidad para que la gente caiga”, detalló Gutiérrez.
Lea también: Alerta sanitaria: Desmantelan “odontólogos de carretas” en el centro de Bogotá, ofrecían tratamientos desde $20.000
Este incidente subraya la creciente amenaza de las estafas con inteligencia artificial, particularmente los deepfakes de voz y video, que se vuelven cada vez más sofisticados y difíciles de identificar para el ojo no experto. Las autoridades y los ciudadanos deben extremar precauciones ante contenidos audiovisuales que promuevan inversiones “demasiado buenas para ser verdad”, verificar siempre la fuente y, ante cualquier sospecha, denunciar de inmediato para evitar que más personas sean víctimas de estos delitos digitales.

