La compañía de inteligencia artificial de Elon Musk creó un generador de noticias falsas que tiene demasiado miedo de hacer público

Tecnología

La compañía de inteligencia artificial de Elon Musk creó un generador de noticias falsas que tiene demasiado miedo de hacer público

Es hora de otra entrega de nuestra mirada continua al futuro que se le presentará gracias a las capacidades cada vez más preocupantes de la inteligencia artificial. Todo el mundo es consciente del problema de las noticias falsas en línea, y ahora la organización sin fines de lucro OpenAI respaldada por Elon Musk ha desarrollado un sistema de inteligencia artificial que puede crear contenido de noticias falsas tan convincente que el grupo es demasiado asustadizo para publicarlo, citando temores de uso indebido. Están permitiendo que los investigadores vean una pequeña parte de lo que han hecho, por lo que no lo ocultan por completo, pero, aun así, la inquietud del grupo aquí es ciertamente reveladora.

“Nuestro modelo, llamado GPT-2, fue entrenado simplemente para predecir la siguiente palabra en 40 GB de texto de Internet”, se lee. un nuevo blog de OpenAI sobre el esfuerzo. “Debido a nuestras preocupaciones sobre las aplicaciones maliciosas de la tecnología, no estamos lanzando el modelo entrenado. Como un experimento de divulgación responsable, en lugar de eso estamos lanzando mucho modelo más pequeño para que los investigadores experimenten, así como un documento técnico .”

Básicamente, el sistema GPT-2 fue 'entrenado' al recibir 8 millones de páginas web, hasta que llegó al punto en que el sistema podía ver un conjunto de texto que se le proporcionaba y predecir las palabras que vendrían a continuación. Según el blog de OpenAI, el modelo es 'como un camaleón: se adapta al estilo y contenido del texto condicionante'. Esto le permite al usuario generar continuaciones realistas y coherentes sobre un tema de su elección”. Incluso si estuviera tratando de producir, digamos, una noticia falsa.

Aquí hay un ejemplo: el sistema de IA recibió este mensaje de texto generado por humanos:

“En un hallazgo impactante, un científico descubrió una manada de unicornios que vivían en un valle remoto, previamente inexplorado, en la Cordillera de los Andes. Aún más sorprendente para los investigadores fue el hecho de que los unicornios hablaran un inglés perfecto”.

A partir de eso, el sistema de IA, después de 10 intentos, continuó la 'historia', comenzando con este texto generado por IA:

“El científico nombró a la población, por su cuerno distintivo, Unicornio de Ovidio. Estos unicornios de cuatro cuernos, de color blanco plateado, eran previamente desconocidos para la ciencia. Ahora, después de casi dos siglos, el misterio de qué provocó este extraño fenómeno finalmente se resuelve”.(Puede consultar el blog de OpenAI en el enlace de arriba para leer el resto de la historia del unicornio que desarrolló el sistema de IA).

Imagínese lo que podría hacer un sistema así, por ejemplo, desencadenar una historia de campaña presidencial. Las implicaciones de esto son la razón por la que OpenAI dice que solo está lanzando públicamente una porción muy pequeña del código de muestreo GPT-2. No está publicando ningún conjunto de datos, código de entrenamiento o 'pesos del modelo GPT-2'. Nuevamente, desde el blog de OpenAI anunciando esto: “Somos conscientes de que algunos investigadores tienen la capacidad técnica para reproducir y abrir nuestros resultados. Creemos que nuestra estrategia de lanzamiento limita el conjunto inicial de organizaciones que pueden optar por hacer esto y le da a la comunidad de IA más tiempo para debatir sobre las implicaciones de tales sistemas.

“También creemos que los gobiernos deberían considerar expandir o iniciar iniciativas para monitorear de manera más sistemática el impacto social y la difusión de las tecnologías de IA, y para medir la progresión en las capacidades de dichos sistemas”, concluye la publicación del blog OpenAI.