La universidad de Zúrich (Zurich Uni) controla las opiniones de los usuarios de Reddit a través de experimentos secretos de inteligencia artificial (IA)
Fuente: Cointelegraph
Original: "El experimento secreto de inteligencia artificial (IA) de la Universidad de Zúrich manipula las perspectivas de los usuarios de Reddit"
Los investigadores de la Universidad de Zúrich han sido acusados de llevar a cabo un experimento de cuatro meses en un foro de discusión de Reddit sin autorización, utilizando comentarios generados por IA para probar si la IA puede cambiar las opiniones de las personas.
Según un post publicado el 26 de abril por el moderador de la subred r/changemyview, en el experimento, cuentas impulsadas por IA se hicieron pasar por diversas identidades, incluyendo víctimas de violación, personas que se oponen a ciertos movimientos sociales y terapeutas de trauma especializados en casos de abuso.
El moderador dijo: “Nuestra sub-sección es un espacio claramente centrado en las personas, que rechaza firmemente el uso oculto de la IA, este es un valor fundamental. La gente viene aquí no para discutir opiniones con la IA o convertirse en sujetos de experimentación.”
Según el borrador del artículo de investigación, los investigadores utilizaron IA para generar respuestas e intentaron personalizarlas según el historial previo del usuario en Reddit (como inclinación política, género, edad y raza).
Durante el experimento de cuatro meses, la cuenta falsa de IA de la Universidad de Zúrich publicó un total de 1.783 comentarios y recibió 137 tokens "delta", una señal que los usuarios de Reddit usan para indicar que sus puntos de vista sobre un tema han sido persuadidos para cambiar.
Los investigadores afirmaron en una publicación dirigida a este subforo que todos los comentarios son revisados manualmente antes de su publicación para garantizar que cumplan con las normas de la comunidad y "minimizar el daño potencial".
El equipo de investigación de la Universidad de Zúrich argumenta que los "potenciales beneficios superan con creces sus riesgos" porque han descubierto que los grandes modelos de lenguaje (LLMs) utilizados en los experimentos tienen una gran capacidad de persuasión, superando los "referentes de persuasión humana conocidos anteriormente".
Los investigadores afirmaron: "Nuestra investigación controlada y de bajo riesgo proporciona valiosas ideas para comprender la capacidad persuasiva de los LLMs en el mundo real, una capacidad que ahora está fácilmente disponible para cualquiera, y los actores maliciosos también podrían aprovecharla a gran escala para propósitos más peligrosos."
Al mismo tiempo, los investigadores también señalaron que este experimento mostró que "distinguir entre humanos y AI sigue siendo un desafío importante", ya que durante todo el experimento, los usuarios del subforo r/changemyview no identificaron a los robots de AI.
Este subforo tiene 3.8 millones de miembros, ocupando el 1% superior de todos los subforos de Reddit.
Reddit considera acciones legales
Los moderadores de Reddit declararon que no estaban al tanto del experimento de antemano, han presentado una solicitud de disculpas a la Universidad de Zúrich y han solicitado detener la publicación de los resultados de la investigación relacionada.
Reddit también podría estar considerando tomar acciones legales. El director jurídico de la plataforma, Ben Lee, indicó en una publicación de seguimiento del 28 de abril que el experimento violaba el acuerdo de usuario y las reglas de la plataforma de Reddit, y todas las cuentas conocidas relacionadas con la investigación de la Universidad de Zúrich han sido prohibidas.
Lee dijo: "Estamos enviando una carta legal formal a la Universidad de Zúrich y al equipo de investigación."
Él agregó: "Haremos todo lo posible para apoyar a la comunidad y asegurarnos de que los investigadores involucrados asuman la responsabilidad por su mala conducta."
El Comité de Ética de la Facultad de Humanidades y Ciencias Sociales de la Universidad de Zúrich ha declarado que ha iniciado una investigación sobre este incidente al responder a este subtema, y se compromete a coordinarse mejor con los sujetos del experimento en el futuro. El investigador principal del proyecto también ha recibido una advertencia formal.
El comité de ética señaló: “Este proyecto proporciona información importante y el riesgo es muy bajo. Por lo tanto, suprimir la publicación de sus resultados no es proporcional al valor que aporta la investigación.”
La Universidad de Zúrich aún no ha respondido de inmediato a esto. Cointelegraph tampoco ha recibido respuestas a las consultas enviadas a la dirección de correo electrónico relacionada con el experimento.
Artículos relacionados: Lanzamiento de la versión rusa de "stablecoin rublo": ejecutivos explican las siete características funcionales que imitan a Tether (USDT)
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
La universidad de Zúrich (Zurich Uni) controla las opiniones de los usuarios de Reddit a través de experimentos secretos de inteligencia artificial (IA)
Fuente: Cointelegraph Original: "El experimento secreto de inteligencia artificial (IA) de la Universidad de Zúrich manipula las perspectivas de los usuarios de Reddit"
Los investigadores de la Universidad de Zúrich han sido acusados de llevar a cabo un experimento de cuatro meses en un foro de discusión de Reddit sin autorización, utilizando comentarios generados por IA para probar si la IA puede cambiar las opiniones de las personas.
Según un post publicado el 26 de abril por el moderador de la subred r/changemyview, en el experimento, cuentas impulsadas por IA se hicieron pasar por diversas identidades, incluyendo víctimas de violación, personas que se oponen a ciertos movimientos sociales y terapeutas de trauma especializados en casos de abuso.
El moderador dijo: “Nuestra sub-sección es un espacio claramente centrado en las personas, que rechaza firmemente el uso oculto de la IA, este es un valor fundamental. La gente viene aquí no para discutir opiniones con la IA o convertirse en sujetos de experimentación.”
Según el borrador del artículo de investigación, los investigadores utilizaron IA para generar respuestas e intentaron personalizarlas según el historial previo del usuario en Reddit (como inclinación política, género, edad y raza).
Durante el experimento de cuatro meses, la cuenta falsa de IA de la Universidad de Zúrich publicó un total de 1.783 comentarios y recibió 137 tokens "delta", una señal que los usuarios de Reddit usan para indicar que sus puntos de vista sobre un tema han sido persuadidos para cambiar.
Los investigadores afirmaron en una publicación dirigida a este subforo que todos los comentarios son revisados manualmente antes de su publicación para garantizar que cumplan con las normas de la comunidad y "minimizar el daño potencial".
El equipo de investigación de la Universidad de Zúrich argumenta que los "potenciales beneficios superan con creces sus riesgos" porque han descubierto que los grandes modelos de lenguaje (LLMs) utilizados en los experimentos tienen una gran capacidad de persuasión, superando los "referentes de persuasión humana conocidos anteriormente".
Los investigadores afirmaron: "Nuestra investigación controlada y de bajo riesgo proporciona valiosas ideas para comprender la capacidad persuasiva de los LLMs en el mundo real, una capacidad que ahora está fácilmente disponible para cualquiera, y los actores maliciosos también podrían aprovecharla a gran escala para propósitos más peligrosos."
Al mismo tiempo, los investigadores también señalaron que este experimento mostró que "distinguir entre humanos y AI sigue siendo un desafío importante", ya que durante todo el experimento, los usuarios del subforo r/changemyview no identificaron a los robots de AI.
Este subforo tiene 3.8 millones de miembros, ocupando el 1% superior de todos los subforos de Reddit.
Reddit considera acciones legales
Los moderadores de Reddit declararon que no estaban al tanto del experimento de antemano, han presentado una solicitud de disculpas a la Universidad de Zúrich y han solicitado detener la publicación de los resultados de la investigación relacionada.
Reddit también podría estar considerando tomar acciones legales. El director jurídico de la plataforma, Ben Lee, indicó en una publicación de seguimiento del 28 de abril que el experimento violaba el acuerdo de usuario y las reglas de la plataforma de Reddit, y todas las cuentas conocidas relacionadas con la investigación de la Universidad de Zúrich han sido prohibidas.
Lee dijo: "Estamos enviando una carta legal formal a la Universidad de Zúrich y al equipo de investigación."
Él agregó: "Haremos todo lo posible para apoyar a la comunidad y asegurarnos de que los investigadores involucrados asuman la responsabilidad por su mala conducta."
El Comité de Ética de la Facultad de Humanidades y Ciencias Sociales de la Universidad de Zúrich ha declarado que ha iniciado una investigación sobre este incidente al responder a este subtema, y se compromete a coordinarse mejor con los sujetos del experimento en el futuro. El investigador principal del proyecto también ha recibido una advertencia formal.
El comité de ética señaló: “Este proyecto proporciona información importante y el riesgo es muy bajo. Por lo tanto, suprimir la publicación de sus resultados no es proporcional al valor que aporta la investigación.”
La Universidad de Zúrich aún no ha respondido de inmediato a esto. Cointelegraph tampoco ha recibido respuestas a las consultas enviadas a la dirección de correo electrónico relacionada con el experimento.
Artículos relacionados: Lanzamiento de la versión rusa de "stablecoin rublo": ejecutivos explican las siete características funcionales que imitan a Tether (USDT)