Twitch pausó una función: la usaron para colocar pornografía en página de inicio
La plataforma señaló que por el momento el Boost Train estará pausado, luego de que usuarios se aprovecharan de ella para infringir las normativas
Fuente: Infobae
Luego de que usuarios se aprovecharan de la nueva función que Twitch lanzó el mes pasado, llamada Boost Train, para poner pornografía en las páginas de inicio de los usuarios con la etiqueta “promocionado por la comunidad de transmisores” en las miniaturas de NSFW, la plataforma ha pausado la herramienta.
Según el sitio Kotaku, varios usuarios de Twitter y Reddit compartieron capturas de pantalla de miniaturas pornográficas que aparecían al frente de sus secciones “Canales en vivo que creemos que te gustarán”.
Dichas miniaturas indican que las transmisiones aparecieron allí gracias a la mencionada característica que Twitch anunció el año pasado. La función ha cambiado desde que se introdujo por primera vez, pero el concepto básico sigue siendo el mismo: los usuarios pueden gastar dinero para obtener una transmisión frente a los ojos de las personas. En este caso, resultó ser contenido que infringe las normativas de Twitch.
Según explicó The Verge, a menos de que los usuarios de Twitch que promocionan las transmisiones intentaran explícitamente desactivar la función o causar problemas al creador, sería difícil llamarlo dinero bien gastado: tres cuentas han aparecido en las capturas de pantalla más populares de pornografía.
Ante lo ocurrido la plataforma suspendió a las cuentas vinculadas por violar los Lineamientos de la comunidad de Twitch. Como señaló Zach Bussey a The Verge, las transmisiones impulsadas por el Boost Train también podrían haber sido simplemente trolling a la antigua).
Twitch “decidió pausar Boost Train debido a algunas consideraciones de seguridad que surgieron durante la prueba”, dijo el jefe de comunicaciones de Twitch, Sam Faught, en un comunicado enviado por correo electrónico al citado medio. Agregó que Twitch “compartirá actualizaciones adicionales con nuestra comunidad sobre nuevas funciones para ayudar a mejorar la visibilidad, según estén disponibles”.
Aunque Twitch no dijo directamente la razón de la pausa, señaló que la función de prueba se detuvo debido a los informes. Las reglas de Twitch prohíben la “desnudez y el contenido o las actividades sexualmente explícitos”.
También se ha visto cómo la atención no deseada, como ser acosados masivamente, puede dañar a los streamers, lo que también podría haber sido una preocupación si la función se hubiera mantenido. Kotaku preguntó si la función regresaría o se modificaría, pero presuntamente Twitch solo respondió con una reiteración de que estaba en pausa por ahora.
Últimas actualizaciones a las normativas de Twitch
Twitch bloqueará a los usuarios que compartan, con frecuencia, información falsa o desinformación desde sus cuentas. Se trata de una nueva medida que busca detener la difusión de contenido dañino.
La plataforma comunicó, por medio de un post en su blog, que actualizó su Política de spam, engaños y conductas maliciosas para prohibir que los usuarios que distribuyen desinformación dañina usen su servicio.
“Nuestro objetivo es prohibir el uso de Twitch a las personas cuya presencia en línea se dedica a difundir información falsa y dañina”, aclaran en el texto.
La plataforma explica que se asoció con más de una docena de investigadores y expertos para comprender cómo se propaga la información errónea y dañina online con el fin de tener un enfoque efectivo para la plataforma de streaming. En este sentido, dicen que identificaron 3 aspectos en común en todos los usuarios con ese comportamiento:
1) suelen compartir contenido ampliamente refutado y viral
2) Se basan en teorías conspirativas u otra forma de desinformación
3) Hacen envíos de este material de manera recurrente entre sus seguidores.
Aclaran que además de esta actualización se continuarán tomando medidas sobre la información errónea dirigida a comunidades específicas según su Política de Acoso y Conducta de Odio, así como medidas sobre el contenido que aliente a otros a participar en comportamientos físicamente dañinos .
Una presentadora generada por IA conduce un documental en un canal británico
Este lunes en la tarde, una cadena de televisión británica emitió un programa sobre los cambios que la inteligencia artificial (IA) está provocando en el mercado laboral, con la conducción de una presentadora creada por IA y no de una periodista.
Fuente: AFP
“La IA afectará la vida de todos en los próximos años. Y a algunos, les hará perder sus trabajos”, declaró la presentadora, Aisha Gaban, una morena con el pelo hasta los hombros. “¿Empleados de call center? ¿Agentes de servicio al cliente? Quizás incluso presentadoras de televisión, como yo”, continuó.
Solo al final del programa reveló su identidad. “No existo”, dice simplemente, afirmando ser la primera presentadora generada por IA en la televisión británica.
“No estuve en los lugares para cubrir la noticia. Mi imagen y mi voz se generaron mediante inteligencia artificial”, explicó, a pesar de que apareció a lo largo del documental en diferentes locaciones.
El documental, titulado “¿Me quitará la IA mi trabajo?”, explora las transformaciones del trabajo con IA en diversos sectores, como el derecho, la música, la moda y la medicina.
Fue emitido por la cadena pública Channel 4 como parte de su programa de investigación Dispatches.
“Usar un presentador generado por IA no es algo que vayamos a adoptar regularmente en Channel 4”, aseguró Louisa Compton, jefa de noticias del canal.
“Al contrario, nuestra prioridad (...) sigue siendo un periodismo de calidad, verificado, imparcial y digno de confianza, algo que la IA no es capaz de ofrecer”, añadió en un comunicado.
Pero esta experiencia representa “un útil recordatorio del potencial disruptivo de la IA y de la facilidad con la que puede engañar a la audiencia con contenido que no tiene forma de verificar”, continuó el ejecutivo de Channel 4.
Presentadores generados por IA ya han aparecido en televisión en varios países, como India y Kuwait.
Desde 2018, los programas de noticias de la agencia de noticias oficial china, Xinhua, fueron presentados por una versión digital de uno de sus presentadores habituales.
En septiembre, Tilly Norwood, una actriz también creada por IA con la ambición de convertirse en “la próxima Scarlett Johansson o Natalie Portman”, provocó indignación en Hollywood.
Darán USD 140.000 a siete startups paraguayas como capital semilla
La novena edición del DemoDay de InnovandoPY adjudicó un total de USD 140.000 en capital semilla a siete startups adjudicadas que culminaron un riguroso proceso de incubación. Cada emprendimiento se llevó USD 20.000, destinados a fortalecer sus operaciones, escalar sus modelos de negocio y acelerar su inserción en el mercado.
El evento, impulsado por el Ministerio de Tecnologías de la Información y Comunicación (MITIC), con apoyo del Ministerio de Industria y Comercio (MIC), reunió a actores clave del sector público, emprendedores, inversores y referentes del sector tech en una noche dedicada al networking. Tuvo lugar en Sacramento Brewing Co.
El encuentro contó con la presencia de los viceministros de Tecnología Klaus Pistilli (MITIC) y de Mipymes Gustavo Giménez (MIC), quienes destacaron el compromiso interinstitucional con el desarrollo emprendedor y la transformación digital del país.
“Todos los que hoy están aquí ya son ganadores. Sigan buscando ser pilares de la sociedad. Convirtámonos en un hub tecnológico donde todos quieran venir a invertir en Paraguay”, expresó Pistilli, en referencia a la visión de posicionar al país como referente regional en innovación.
Por su parte, Giménez celebró la sinergia entre ambas carteras: “Hoy podemos decir que estamos trabajando totalmente en alianza entre el MITIC y el MIC. Estamos decididos que podemos hacer la diferencia. El futuro se construye hoy”.
El DemoDay de InnovandoPY representa el cierre de un riguroso proceso de incubación integral, en el que participaron empresas de base tecnológica con alto potencial de crecimiento. A lo largo del programa, los emprendimientos recibieron mentorías, orientadas a fortalecer sus modelos de negocio. Esta iniciativa forma parte del Programa de Apoyo a la Agenda Digital del MITIC.
De las once startups que recibieron acompañamiento, siete fueron seleccionadas por un jurado especializado para recibir USD 20.000 cada una en concepto de capital semilla. Ese monto está destinado a potenciar sus operaciones, escalar y acelerar su inserción en el mercado.
A continuación la lista de los proyectos que participaron de la edición 2025 del DemoDay de InnovandoPY:
Bitanav: Plataforma de navegación y logística fluvial con reportes en tiempo real para optimizar rutas en la hidrovía Paraguay–Paraná.
HomeBridge: Solución digital que conecta brokers inmobiliarios con entidades financieras, acelerando y transparentando créditos hipotecarios.
HappyLiving Lat: Sistema con IA que centraliza reclamos y mantenimientos en inmuebles, optimizando la gestión residencial.
Vetscate: Plataforma veterinaria con atención 24/7, geolocalización en emergencias y reservas de citas en línea.
Meik: Espacio online que impulsa el aprendizaje STEAM para niños con guías interactivas, juegos y personalización del progreso.
Pimer: Plataforma que conecta a trabajadores con clientes para resolver problemas del hogar e integra un catálogo de productos y servicios.
Tiflo Maze: Experiencia de realidad virtual que simula la vida de una persona ciega, fomentando conciencia y educación inclusiva.
Cada una de estas startups presentó un pitch evidenciando el trabajo técnico, estratégico y creativo desarrollado durante el programa, que incluyó formación en UX/UI, análisis financiero, mercadeo, branding, validación de mercado y técnicas de presentación, entre otros.
Estudio revela fallos del chatbot Grok de Musk en respuestas a guerra Irán-Israel
Grok, el chatbot de inteligencia artificial (IA) de la empresa xAI de Elon Musk, dio respuestas inexactas y contradictorias cuando se intentó verificar a través de él la información sobre la guerra de 12 días entre Israel e Irán, concluyó un estudio.
Fuente: AFP
Con la desaparición gradual de la verificación por parte de periodistas en plataformas como Facebook, cada vez más internautas recurren a herramientas de inteligencia artificial (IA) como Grok para encontrar información fiable, pero las respuestas que obtienen a veces desinforman.
Según un estudio publicado este martes por un laboratorio de investigación digital del Atlantic Council, un grupo de reflexión estadounidense, las respuestas de Grok “durante los primeros días del conflicto entre Israel e Irán revelaron fallos significativos y demostraron las limitaciones del chatbot para proporcionar información precisa, fiable y coherente en tiempos de crisis”.
Analizó 130.000 mensajes en varios idiomas en la plataforma X, que integra el chatbot Grok, y determinó que éste “tenía dificultades para autentificar el contenido generado por la IA”.
Por ejemplo, tras los ataques de represalia de Irán contra Israel, Grok ofreció respuestas muy diferentes sobre imágenes generadas por IA de un aeropuerto destruido, que habían acumulado millones de visualizaciones en X: oscilaba, a veces en el mismo minuto, entre negar la destrucción del aeropuerto y confirmar que había sido alcanzado por los ataques.
En algunas respuestas Grok afirmó que los daños se debían a un misil disparado desde Yemen, en otras identificó falsamente el aeropuerto como el de Beirut, Gaza o Teherán.
Según los expertos, Grok ya se ha equivocado en la verificación de hechos sobre el reciente conflicto entre India y Pakistán y durante las manifestaciones en Los Ángeles contra las redadas migratorias ordenadas por el presidente estadounidense Donald Trump.
El mes pasado, el servicio de IA del empresario de origen sudafricano también causó polémica al referirse erróneamente a un “genocidio blanco” en Sudáfrica, error que xAI achacó posteriormente a una “modificación no autorizada”.