La división de Facebook de desarrollo de inteligencia artificial (FAIR, por sus siglas en Inglés) creó un sistema dedicado a las negociaciones. Sin embargo, decidió cancelarlo porque durante las primeras pruebas el sistema comenzó a conversar en un lenguaje extraño y aparentemente erróneo.
- MIRA AQUÍ:
Según los desarrolladores, no era un error, el sistema había creado su propio idioma.
Los creadores querían probar cómo un sistema de este tipo podía aprender a negociar, pero a los pocos días notaron que ya no estaban hablando en inglés, sino en algo parecido. Las conversaciones entre Bob y Alice, los dos agentes artificiales, parecían basarse en palabras aleatorias y sin nada de sentido.
- TE PUEDE INTERESAR:
- Bob: “Yo puedo yo yo todo lo demás”
- Alice: “Bolas tienen cero a mi a mi a mi a mi a mi a mi a”
Según los expertos, estas palabras reflejan la cantidad de objetos que obtendrán en el intercambio. “Yo” y “a mi” son frases más lógicas que adornadas, como solemos hacer en tantos idiomas “humanos”.
- ADEMÁS:
Los desarrolladores consideraron que si la inteligencia artificial lo quisiera, sería imposible que sus creadores se comuniquen con ella. Esto significaría la pérdida de control del programador.
*Con información de Gizmodo