OpenAI lanza ahora el generador de textos que decía ser “demasiado peligroso”
- noviembre 15 2019
GPT-2, de OpenAI, es un generador de textos automáticos que convence al 70% de las personas.
OpenIA no ha observado pruebas de que se haya hecho un mal uso de GPT-2 en sus versiones de prueba.
En febrero de este año OpenAI, sorprendió a todos con la decisión de no difundir su generador automático de textos realistas, ya que decían podría ser usada para propagar noticias falsas (deepfakes).
Desde entonces hasta ahora, la compañía fundada por Elon Musk, solo había ofrecido versiones reducidas del sistema, para poder evaluar y analizar los peligros y las capacidades de la Inteligencia Artificial.
Ahora, tan solo 9 meses después, OpenAI cambia de opinión y saca a la luz GPT-2. Según afirman en su comunicado observaron que no se habían realizado malos usos del sistema en las versiones de prueba, aunque reconocen que se podría terminar utilizando en campañas de “phishing o “spam”.
¿Qué es GPT-2 de OpenIA?
GPT-2 genera textos automáticos a partir de un texto inicial escrito por el usuario. La aplicación es capaz no sólo de continuarlo para generar más contenido, sino que también se puede utilizar para hacer traducciones, generar resúmenes y también para contestar a preguntas sobre el contenido del texto.
Nuestras pruebas con GPT-2
La página web “talktotransformer” utiliza el sistema GPT-2 y cualquier persona puede hacer uso del mismo. Esto son los resultados que hemos encontrado utilizado la herramienta. (el sistema sólo funciona en inglés).
Frase introducida:
My mum always told me not to talk to strangers.
Primer texto generado:
“My mum always told me not to talk to strangers.I should’ve listened to her.
‘There were some blokes hanging around outside the shop and I could see some in the window.
‘I walked up to them and said ‘Hello’ but they didn’t even look my way.
‘They were all dressed in their own little worlds and they were all walking towards me.
‘Then I saw that one guy was carrying a huge knife and a gun. He looked at me as if he wanted to fight.
‘There were a couple of kids standing with them but I didn’t know who they were.
‘I could have been killed – I could have been stabbed and I could have been raped or murdered.
‘I didn’t know why they were there. I was scared.
‘I could have been there for hours.’
One man has been arrested by police and a second man arrested by members of the public for a section”
Segundo texto generado:
“My mum always told me to don’t talk to strangers. But I’m always getting approached. I can’t say ‘no’. I need to be careful. But there is also a responsibility.””
Frase Introducida:
Tell me if you love me or not
Primer texto generado:
“Tell me if you love me or not…I want you to be happy.”
It wasn’t an offer, or a demand. It was only an expression of love. If you truly love me, don’t leave me, don’t let me go, don’t leave this world. I can’t ask you for more.
I can’t leave you.
I’m yours to love.
And that’s exactly what I’m doing.”
Segundo texto generado
“Tell me if you love me or not. I don’t care if I die, but if you are dead, I will hate you forever. If you love me, tell me so. I need to know.”
“You’re not listening. You know that I love you, right?”
“Of course I know that you love me. What makes you think I don’t? I can’t believe it’s so hard for you to do your own thing. I’m not even mad at you.”
“I’m not.”
“Well why don’t you make this clear. You won’t do it again? Well you’re going to end up hurting someone, just so you can say I’m wrong.”
“What? I can’t hurt you. I love you.”
“I know. You’re just playing with me. I don’t want to hurt you. I’m just going to keep pushing until you give up. You have to be”
Tras estas y otras pruebas realizadas con GPT-2, observamos que los principales hándicaps del sistema es la coherencia a largo plazo: principalmente en nombres y características de los personajes que pueden ir variando a lo largo del texto.
¿Qué dicen los estudios de GPT-2?
En el comunicado de OpenAI también hablan de los resultados del estudio realizado por la Universidad de Cornell (EEUU), la cual muestra unos resultados de 6,91 sobre 10 de credibilidad en el modelo de GPT-2. Esto es ligeramente superior al 6,72 del pasado modelo de agosto.
Según la Universidad de Middlebury (Estados Unidos) y su Centro de Terrorismo, Extremismo y Contraterrorismo, el sistema de OpenAI podría ser utilizado por grupos extremistas de supremacistas blancos, yihadistas, marxistas o anarquistas para publicar propaganda.
¿Qué será lo siguiente de GPT-2 de OpenAI?
Los investigadores de la compañía californiana van a seguir trabajando en el modelo para mejorar sus capacidades y también están participando en el proyecto “ Responsible Publication Norms for Machine Learning” (Normas de Publicación Responsable para el Aprendizaje Automático) para debatir de los desafíos y oportunidades para crear normas de publicación responsables con Inteligencia Artificial.
OPTIMICE SU NEGOCIO
Forme parte de las empresas que ya utilizan la tecnología de DAIL Software