HomeTecnologíaApp para desnudar personas con inteligencia artificial es investigada

App para desnudar personas con inteligencia artificial es investigada

Fecha:

spot_imgspot_img

Destacados

PDVSA y empresa petrolera de Texas firman acuerdo millonario pese a sanciones

Empresa estadounidense rehabilitará cinco campos petroleros en Venezuela Una empresa...

Nicolás Maduro instala XXIII Cumbre del ALBA-TCP en Caracas

Nicolás Maduro, instaló este miércoles en Caracas la XXIII...
spot_img
spot_imgspot_img

Las imágenes de desnudos falsos de más de 100.000 mujeres han sido creadas a partir de fotos de medios sociales y compartidas en línea, según un nuevo informe. App para desnudar personas

La ropa se quita digitalmente de las fotos de mujeres por la Inteligencia Artificial (AI), y se extiende en la aplicación de mensajería Telegram.

Algunos de los objetivos “parecían ser menores de edad”, según el informe de la empresa de inteligencia Sensity. App para desnudar personas

Pero los que dirigían el servicio dijeron que era simplemente “entretenimiento”.

La BBC ha probado el software y ha recibido malos resultados.

Sensity afirma que la tecnología utilizada es un “bot de engaño profundo”.

Deepfakes son imágenes y videos generados por computadora, a menudo realistas, basados en una plantilla real. Uno de sus usos ha sido crear video clips pornográficos falsos de celebridades. App para desnudar personas

Pero el director ejecutivo de Sensity, Giorgio Patrini, dijo que el cambio de uso de fotos de particulares es relativamente nuevo.

“Tener una cuenta en los medios sociales con fotos públicas es suficiente para que cualquiera se convierta en un objetivo”, advirtió.

Bot de Telegram

El robot alimentado por la inteligencia artificial vive dentro de un canal de mensajería privada de telegramas. Los usuarios pueden enviar al bot una foto de una mujer, y le quitará la ropa digitalmente en minutos, sin costo alguno.

La BBC probó múltiples imágenes, todas con el consentimiento de los sujetos, y ninguna era completamente realista – nuestros resultados incluían una foto de una mujer con un ombligo en su diafragma.

Una aplicación similar fue cerrada el año pasado, pero se cree que hay versiones crackeadas del software en circulación. App para desnudar personas

El administrador que ejecuta el servicio, conocido sólo como “P” dijo: “No me importa tanto. Este es un entretenimiento que no conlleva violencia.

“Nadie chantajeará a nadie con esto, ya que la calidad no es realista.”

También dijo que el equipo mira las fotos que se comparten, y “cuando vemos a menores bloqueamos al usuario para siempre”.
Pero la decisión de compartir la foto con otros depende de quien usó el bot para crearla en primer lugar, dijo.

Defendiendo su nivel relativo de daño, añadió: “Hay guerras, enfermedades, muchas cosas malas que son dañinas en el mundo”. También ha afirmado que pronto eliminará todas las imágenes.

Telegram no ha respondido a la solicitud de comentarios

Contenido pedófilo

Sensity informó de que entre julio de 2019 y 2020, aproximadamente 104.852 mujeres han sido objeto de ataques y se han difundido públicamente imágenes falsas de ellas desnudas. App para desnudar personas

Su investigación reveló que algunas de las imágenes aparecían como menores de edad, “lo que sugiere que algunos usuarios utilizaban principalmente el bot para generar y compartir contenido pedófilo”.

Sensity dijo que el bot ha tenido una publicidad significativa en el sitio ruso de medios sociales VK, y una encuesta en la plataforma mostró que la mayoría de los usuarios eran de Rusia y de los países de la ex URSS.

Pero VK dijo: “No tolera ese contenido o enlaces en la plataforma y bloquea las comunidades que los distribuyen”.

El telegrama fue oficialmente prohibido en Rusia hasta principios de este año.

“Muchos de estos sitios web o aplicaciones no se esconden ni operan bajo tierra, porque no están estrictamente prohibidos”, dijo Giorgio Patrini de Sensity.

“Hasta que eso suceda, me temo que sólo empeorará.”
Los autores del informe dicen que han compartido todos sus hallazgos con Telegram, VK y las agencias de aplicación de la ley pertinentes, pero no han tenido una respuesta.

Nina Schick, autora del libro Deep Fakes and the Infocalypse, dijo que los creadores de Deep Fakes estaban en todo el mundo, y que las protecciones legales estaban “jugando a ponerse al día” con la tecnología. App para desnudar personas

“Es sólo cuestión de tiempo hasta que ese contenido se vuelva más sofisticado. El número de videos pornográficos de engaño profundo parece duplicarse cada seis meses”, dijo.

“Nuestros sistemas legales no son adecuados para este tema. La sociedad está cambiando más rápido de lo que podemos imaginar debido a estos avances tecnológicos exponenciales, y nosotros como sociedad no hemos decidido cómo regular esto.

“Es devastador, para las víctimas del falso porno. Puede trastornar completamente sus vidas porque se sienten violadas y humilladas.”

El año pasado el estado de Virginia se convirtió en uno de los primeros lugares en prohibir las falsificaciones

La actual ley del Reino Unido sobre imágenes falsas de desnudos ha sido recientemente criticada por ser “inconsistente, anticuada y confusa” en un informe universitario.

A pesar de los avances en temas como la pornografía de venganza y el upskirting, “sigue habiendo muchas lagunas evidentes en la ley”, dice Lucy Hadley de la organización benéfica Women’s Aid.

Aunque estas estadísticas muestran lo extendidas que pueden estar las imágenes falsas, actualmente no es un delito específico.

Continua Leyendo: Hija de Gloria Estefan cuenta su experiencia al salir del closet


Únete a nuestro canal en Telegram Noticiero de Venezuela

Suscríbete

Más recientes

spot_img

Salud