Información

El equipo de inteligencia artificial de Microsoft lanza un bot que puede generar comentarios falsos, Internet pregunta por qué

El equipo de inteligencia artificial de Microsoft lanza un bot que puede generar comentarios falsos, Internet pregunta por qué


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Curiosamente, un equipo de Microsoft ha publicado un trabajo en un bot de inteligencia artificial, llamado DeepCom, que puede usarse para generar comentarios falsos sobre artículos de noticias.

El equipo dice que estos comentarios falsos pueden crear compromiso para nuevos sitios web y medios de comunicación, esencialmente alentando el uso de cuentas falsas para generar un compromiso real con discusiones falsas.

RELACIONADO: UNA NUEVA HERRAMIENTA DE AI PUEDE AYUDARNOS A COMBATIR NOTICIAS FALSAS ESCRITAS POR AI

¿Necesitamos esto?

La respuesta corta. No.

Internet ya está repleto de cuentas falsas y bots, que se utilizan para engañar y desinformar al público en general.

Sin embargo, la pregunta que el equipo de investigadores de Microsoft y la Universidad de Beihang en China parece hacerse es: ¿cuál es el daño de usar comentarios falsos para estimular y alentar la discusión en lectores de noticias reales?

Los investigadores argumentan que los lectores disfrutan publicando comentarios en artículos de noticias y compartiendo sus opiniones. Para los editores, esto aumenta el compromiso, entonces, ¿por qué no darle un impulso a todo esto gracias a la IA?

“Estos sistemas pueden habilitar el servicio de comentarios para un sitio web de noticias desde un inicio en frío, mejorar la experiencia de lectura para artículos de noticias menos comentados y enriquecer las listas de habilidades de otras aplicaciones de inteligencia artificial, como los chatbots”, dice el documento.

Un artículo de investigadores de Beijing presenta una nueva técnica de aprendizaje automático cuyos principales usos parecen ser el trolling y la desinformación. Ha sido aceptado para su publicación en EMLNP, uno de los 3 principales lugares para la investigación del procesamiento del lenguaje natural. Genial Genial Genialhttps: //t.co/ZOcrhjKiEcpic.twitter.com/Y8U5AjENrh

- Arvind Narayanan (@random_walker) 30 de septiembre de 2019

El problema es que el nuevo documento, publicado en arXiv, no incluye menciones de posibles usos maliciosos o de los peligros que la tecnología podría representar al ayudar a difundir noticias falsas. Varios críticos ya han expresado sus preocupaciones.

Redes neuronales de lectura de noticias

Como El registro informes, DeepCom emplea simultáneamente dos redes neuronales: una red de lectura y una red generadora.

Todas las palabras de un artículo de noticias están codificadas como vectores para que las analice la IA. La red de lectura recoge lo que calcula que son los aspectos más importantes del artículo (una persona, evento o tema), antes de que la red generadora cree un comentario basado en eso.

Los investigadores entrenaron a DeepCom en un conjunto de datos chino compuesto por millones de comentarios humanos publicados en artículos de noticias en línea, así como un conjunto de datos en inglés de artículos en Yahoo.! Noticias.

El ejemplo anterior muestra partes importantes de un Yahoo! artículo resaltado en rojo (la red de lectura), y lo que el bot elige comentar en azul (la red generadora).

Otro bot controvertido

No es el primer roce de Microsoft con la controversia de los bots. Su robot de inteligencia artificial "Tay" tuvo que ser eliminado hace tres años, después de que aprendiera rápidamente a twittear mensajes racistas, homofóbicos y antifeministas después de haber sido entrenado en una vasta base de datos de tweets.

Tay tuvo que ser eliminado después de solo 16 horas debido a su torrente no solicitado de tweets de odio. Parece que entrenar a una IA sobre comentaristas en línea, personas que a menudo pierden todas las inhibiciones gracias a su anonimato, no es una buena idea después de todo.

Parece que se necesita más trabajo antes de que DeepCom pueda realmente incitar el compromiso o crear comentarios que puedan usarse para alterar la sociedad a gran escala. Por el momento, los comentarios generados por el bot de IA son breves y sencillos.

Sin embargo, la investigación ha sido aceptada en EMNLP-IJCNLP, una conferencia internacional de procesamiento del lenguaje natural, que se llevará a cabo en Hong Kong el próximo mes (del 3 al 7 de noviembre).

Mientras tanto, los investigadores del MIT han estado creando una herramienta de IA, llamada Giant Language Model Test Room (GLTR), que puede detectar texto escrito por IA. Es posible que necesiten comenzar a mejorar su juego.


Ver el vídeo: Por qué es importante la inteligencia artificial? (Julio 2022).


Comentarios:

  1. Colin

    Bien hecho, esta oración era casi

  2. Gerrard

    La publicación me hizo pensar, me fui para pensar mucho ...

  3. Creketun

    Este tema es simplemente increíble :), muy interesante para mí)))

  4. Walliyullah

    Me ha gustado tu blog, sobre todo el diseño.



Escribe un mensaje