Investigación revela: algoritmo de Instagram permite contactar con pedófilos
Una investigación impulsada por The Wall Street Journal, en conjunto con las universidades de Stanford y Massachusetts Amherst, reveló que el algoritmo de Instagram es capaz de sugerir cuentas vinculadas a pedófilos, así como contactar con vendedores de pornografía infantil.
Una investigación conjunta del periódico estadounidense The Wall Street Journal e investigadores del Observatorio de Internet de Stanford y la Universidad Massachusetts Amherst logró develar datos perturbadores sobre una de las redes sociales más utilizadas a nivel mundial: Instagram.
En este caso, pudo confirmar que los algoritmos de recomendación de Instagram ayudan a conectar y promover una amplia red de perfiles que venden material de pornografía infantil.
Durante la investigación se pudo determinar que era posible buscar ‘hashtags’ relacionados con el abuso sexual infantil, incluidos términos explícitos como #pedowhore (pederasta, en inglés) o #preteensex (sexo preadolescente), que dirigían a perfiles que ofrecen contenido pedófilo.
Te puede interesar: La nueva forma de estafar a través de Gmail y utilizando cuentas “verificadas”
Según el análisis del WSJ, más del 90% de las cuentas que venden material ilegal están conectadas entre sí a través de estas recomendaciones. Además, el 75% de estas cuentas también siguen o son seguidas por usuarios que publican imágenes o videos sexualmente explícitos de niños o adolescentes.
Para llegar a esta conclusión, los investigadores crearon perfiles que seguían únicamente una de las cuentas que utilizaban los mencionados ‘hashtags’ e inmediatamente los algoritmos de la red social les empezaron a recomendar vendedores o compradores de contenido sexual infantil y cuentas enlazadas con sitios de venta fuera de la plataforma.
Durante la investigación, fueron detectados 405 vendedores de contenido pedófilo en Instagram, mientras que en Twitter -que también formó parte del estudio- identificaron 128 perfiles que ofrecían vender material de abuso sexual infantil.
Leé también: Cómo saber si alguien está “espiando” nuestro teléfono Android
Tras saltar el escándalo y ser informado sobre el caso, Meta -que es propietaria de Instagram, al igual que Facebook y WhatsApp- reconoció los problemas dentro de sus operaciones de cumplimiento y aseguró que “estableció un grupo de trabajo interno” para abordar los problemas planteados.
Una presentadora generada por IA conduce un documental en un canal británico
Este lunes en la tarde, una cadena de televisión británica emitió un programa sobre los cambios que la inteligencia artificial (IA) está provocando en el mercado laboral, con la conducción de una presentadora creada por IA y no de una periodista.
Fuente: AFP
“La IA afectará la vida de todos en los próximos años. Y a algunos, les hará perder sus trabajos”, declaró la presentadora, Aisha Gaban, una morena con el pelo hasta los hombros. “¿Empleados de call center? ¿Agentes de servicio al cliente? Quizás incluso presentadoras de televisión, como yo”, continuó.
Solo al final del programa reveló su identidad. “No existo”, dice simplemente, afirmando ser la primera presentadora generada por IA en la televisión británica.
“No estuve en los lugares para cubrir la noticia. Mi imagen y mi voz se generaron mediante inteligencia artificial”, explicó, a pesar de que apareció a lo largo del documental en diferentes locaciones.
El documental, titulado “¿Me quitará la IA mi trabajo?”, explora las transformaciones del trabajo con IA en diversos sectores, como el derecho, la música, la moda y la medicina.
Fue emitido por la cadena pública Channel 4 como parte de su programa de investigación Dispatches.
“Usar un presentador generado por IA no es algo que vayamos a adoptar regularmente en Channel 4”, aseguró Louisa Compton, jefa de noticias del canal.
“Al contrario, nuestra prioridad (...) sigue siendo un periodismo de calidad, verificado, imparcial y digno de confianza, algo que la IA no es capaz de ofrecer”, añadió en un comunicado.
Pero esta experiencia representa “un útil recordatorio del potencial disruptivo de la IA y de la facilidad con la que puede engañar a la audiencia con contenido que no tiene forma de verificar”, continuó el ejecutivo de Channel 4.
Presentadores generados por IA ya han aparecido en televisión en varios países, como India y Kuwait.
Desde 2018, los programas de noticias de la agencia de noticias oficial china, Xinhua, fueron presentados por una versión digital de uno de sus presentadores habituales.
En septiembre, Tilly Norwood, una actriz también creada por IA con la ambición de convertirse en “la próxima Scarlett Johansson o Natalie Portman”, provocó indignación en Hollywood.
Darán USD 140.000 a siete startups paraguayas como capital semilla
La novena edición del DemoDay de InnovandoPY adjudicó un total de USD 140.000 en capital semilla a siete startups adjudicadas que culminaron un riguroso proceso de incubación. Cada emprendimiento se llevó USD 20.000, destinados a fortalecer sus operaciones, escalar sus modelos de negocio y acelerar su inserción en el mercado.
El evento, impulsado por el Ministerio de Tecnologías de la Información y Comunicación (MITIC), con apoyo del Ministerio de Industria y Comercio (MIC), reunió a actores clave del sector público, emprendedores, inversores y referentes del sector tech en una noche dedicada al networking. Tuvo lugar en Sacramento Brewing Co.
El encuentro contó con la presencia de los viceministros de Tecnología Klaus Pistilli (MITIC) y de Mipymes Gustavo Giménez (MIC), quienes destacaron el compromiso interinstitucional con el desarrollo emprendedor y la transformación digital del país.
“Todos los que hoy están aquí ya son ganadores. Sigan buscando ser pilares de la sociedad. Convirtámonos en un hub tecnológico donde todos quieran venir a invertir en Paraguay”, expresó Pistilli, en referencia a la visión de posicionar al país como referente regional en innovación.
Por su parte, Giménez celebró la sinergia entre ambas carteras: “Hoy podemos decir que estamos trabajando totalmente en alianza entre el MITIC y el MIC. Estamos decididos que podemos hacer la diferencia. El futuro se construye hoy”.
El DemoDay de InnovandoPY representa el cierre de un riguroso proceso de incubación integral, en el que participaron empresas de base tecnológica con alto potencial de crecimiento. A lo largo del programa, los emprendimientos recibieron mentorías, orientadas a fortalecer sus modelos de negocio. Esta iniciativa forma parte del Programa de Apoyo a la Agenda Digital del MITIC.
De las once startups que recibieron acompañamiento, siete fueron seleccionadas por un jurado especializado para recibir USD 20.000 cada una en concepto de capital semilla. Ese monto está destinado a potenciar sus operaciones, escalar y acelerar su inserción en el mercado.
A continuación la lista de los proyectos que participaron de la edición 2025 del DemoDay de InnovandoPY:
Bitanav: Plataforma de navegación y logística fluvial con reportes en tiempo real para optimizar rutas en la hidrovía Paraguay–Paraná.
HomeBridge: Solución digital que conecta brokers inmobiliarios con entidades financieras, acelerando y transparentando créditos hipotecarios.
HappyLiving Lat: Sistema con IA que centraliza reclamos y mantenimientos en inmuebles, optimizando la gestión residencial.
Vetscate: Plataforma veterinaria con atención 24/7, geolocalización en emergencias y reservas de citas en línea.
Meik: Espacio online que impulsa el aprendizaje STEAM para niños con guías interactivas, juegos y personalización del progreso.
Pimer: Plataforma que conecta a trabajadores con clientes para resolver problemas del hogar e integra un catálogo de productos y servicios.
Tiflo Maze: Experiencia de realidad virtual que simula la vida de una persona ciega, fomentando conciencia y educación inclusiva.
Cada una de estas startups presentó un pitch evidenciando el trabajo técnico, estratégico y creativo desarrollado durante el programa, que incluyó formación en UX/UI, análisis financiero, mercadeo, branding, validación de mercado y técnicas de presentación, entre otros.
Estudio revela fallos del chatbot Grok de Musk en respuestas a guerra Irán-Israel
Grok, el chatbot de inteligencia artificial (IA) de la empresa xAI de Elon Musk, dio respuestas inexactas y contradictorias cuando se intentó verificar a través de él la información sobre la guerra de 12 días entre Israel e Irán, concluyó un estudio.
Fuente: AFP
Con la desaparición gradual de la verificación por parte de periodistas en plataformas como Facebook, cada vez más internautas recurren a herramientas de inteligencia artificial (IA) como Grok para encontrar información fiable, pero las respuestas que obtienen a veces desinforman.
Según un estudio publicado este martes por un laboratorio de investigación digital del Atlantic Council, un grupo de reflexión estadounidense, las respuestas de Grok “durante los primeros días del conflicto entre Israel e Irán revelaron fallos significativos y demostraron las limitaciones del chatbot para proporcionar información precisa, fiable y coherente en tiempos de crisis”.
Analizó 130.000 mensajes en varios idiomas en la plataforma X, que integra el chatbot Grok, y determinó que éste “tenía dificultades para autentificar el contenido generado por la IA”.
Por ejemplo, tras los ataques de represalia de Irán contra Israel, Grok ofreció respuestas muy diferentes sobre imágenes generadas por IA de un aeropuerto destruido, que habían acumulado millones de visualizaciones en X: oscilaba, a veces en el mismo minuto, entre negar la destrucción del aeropuerto y confirmar que había sido alcanzado por los ataques.
En algunas respuestas Grok afirmó que los daños se debían a un misil disparado desde Yemen, en otras identificó falsamente el aeropuerto como el de Beirut, Gaza o Teherán.
Según los expertos, Grok ya se ha equivocado en la verificación de hechos sobre el reciente conflicto entre India y Pakistán y durante las manifestaciones en Los Ángeles contra las redadas migratorias ordenadas por el presidente estadounidense Donald Trump.
El mes pasado, el servicio de IA del empresario de origen sudafricano también causó polémica al referirse erróneamente a un “genocidio blanco” en Sudáfrica, error que xAI achacó posteriormente a una “modificación no autorizada”.