“Doctor, buenos días, necesito que me haga un favor, dígame donde están vendiendo ese producto tan bueno que usted promociona en Internet porque vieras que todos los síntomas que usted explica ahí los tengo yo y la verdad ya quiero curarme”.
Con esa llamada dejó más que sorprendido al médico internista, especialista en cuidados intensivos y con una maestría en salud pública, Marco Vinicio Boza, el propio contador que él tiene, porque jamás ha hecho ningún video promocionando un medicamento.
Esa fue la primera señal de alerta. La segunda señal llegó con la tercera, la cuarta y hasta la quinta, porque la mañana del viernes 4 de agosto al doctor Boza lo llamaron varios colegas y amigos para informarle que esta circulando en redes sociales un video en el cual él, sí, él con su cara y su voz, está recomendando un producto casi que “milagroso” que limpia los coágulos de las arterias del cerebro.
Con tanta llamada el doctor Boza activó todas sus alertas, se metió a redes sociales y encontró el video, el Cardinol. De inmediato el doctor buscó el medicamento en Google, pero no aparece nada y él nunca lo había escuchado, solo hay un nombre parecido en Internet, pero es un medicamento para animales.
“No podía creer lo que estaba viendo, en verdad era yo, usaron seguro una entrevista que di en televisión y con una voz parecida a la mía usaron inteligencia artificial para mover mi boca. Me quedé impresionado”, nos cuenta el doctor.
LEA MÁS: Se pensiona el doctor Marco Vinicio Boza luego de 35 años de trabajo en Cuidados Intensivos
El video empieza con, supuestamente, la periodista y expresentadora de Noticias Repretel Jennifer Segura, anunciando el producto “milagroso” y después entra el doctor Boza.
A la comunicadora le montaron una voz encima, o sea, sí usaron un video donde Jennifer presenta una nota del noticiero, pero el resto es pura trama.
Sospeche siempre
Sobre el uso de la inteligencia artificial en video para poner a la gente a decir lo que no ha dicho, hablamos con el vicepresidente del Colegio de Profesionales en Informática, el ingeniero Francisco Vargas-Navarro, quien lo primero que nos advirtió es que siempre hay que sospechar.
“Ahora las personas que usan redes sociales deben sospechar siempre de todos los videos, comprobar, siempre buscar una segunda opinión. Deben fijarse muy bien. En el caso del video del doctor Boza se nota que cuando supuestamente está hablando la periodista, la voz va atrasada del movimiento de la boca de la imagen, esas son pequeñas diferencias que nos advierten.
LEA MÁS: Así detectan los profes cuando les quieren meter un gol con inteligencia artificial
“No crean de buenas a primeras todo lo que ven o leen en redes sociales, siempre busquen confirmarlo con otros medios, por ejemplo, la muerte de un famoso, si solo lo ve en un medio, sospeche, así pasa con este tipo de noticias, si solo ve un video con esa información, dude totalmente”, explica el ingeniero.
Un problema que crece
Tomas De Camino Beck, director de la Escuela de Sistemas Inteligentes de la Universidad Cenfotec, experto en inteligencia artificial, nos advierte que este tipo de videos falsos están y seguirán estando a la orden del día en redes sociales.
“Es un problema que cada día se hace más grande, porque no se necesita mucho dinero para hacer esos videos con inteligencia artificial. Recomiendo una doble y hasta una triple revisión de un video para confirmar que una noticia es cierta. En el caso de medicamentos, lo que se debe hacer es consultar al médico, no irse a la primera y confiar.
“Creo que se debe buscar la manera de parar este tipo de video. Facebook debería, también con inteligencia artificial, detectar cuando se da uso indebido de la propia inteligencia artificial”, explica.
José Medrano, abogado especialista en Derecho Informático aclaró: “Este tipo de montaje, donde se simulan declaraciones de un profesional de la salud para promover un producto de nula reputación, es una forma de suplantación de identidad que sirve como parte del engaño de la estafa tradicional.
Alertas
La periodista Jennifer Segura, por su parte, nos dijo: “Es bastante preocupante ver este tipo de contenidos ser replicados sin ningún tipo de control, valiéndose incluso de la credibilidad de médicos.
“Si bien la inteligencia artificial, utilizada para los fines correctos, nos da muchas facilidades, por ahora la desprotección y desinformación que existe sobre el tema es enorme”.
LEA MÁS: Una más: Glenda Peraza también fue víctima de los desnudos de la inteligencia artificial