Principales Indicadores Económicos Juegos Olímpicos París 2024

¡Inteligencia Artificial! Advierten por uso de ChatGPT para estos trabajos

  • Por Mariana Farfán
10 de diciembre de 2023, 12:13
Se reveló que la plataforma estaría presentando inconvenientes en su funcionamiento. (Foto: Pexels) 

Se reveló que la plataforma estaría presentando inconvenientes en su funcionamiento. (Foto: Pexels) 

El perfil oficial de ChatGPT reveló que el software estaría teniendo fallas de comportamiento a las que le están buscando solución. 

OTRAS NOTICIAS: ¡Botón contra el Apocalipsis! Así se evitará que ChatGPT se salga de control

En la cuenta oficial de X de ChatGPT, inteligencia artificial creada por OpenIA, se reveló que el nuevo software GPT4, que debería ser más avanzado, estaría presentando inconvenientes, volviéndose "más perezoso". 

"¡Hemos escuchado sus comentarios sobre que GPT4 se está haciendo más perezoso! No hemos actualizado el modelo desde el 11 de noviembre y ciertamente no es intencional. El comportamiento del modelo es impredecible y estamos intentando solucionarlo", explicaron. 

Hasta el momento no se ha expresado que el problema haya sido resuelto, pero sí notificaron de las dificultades que podría presentar el entrenamiento de un modelo de inteligencia artificial. 

"Diferentes ejercicios de entrenamiento, incluso utilizando la misma información, pueden producir modelos notablemente diferentes", indicaron. Además, agregaron que se pueden llegar a producir características como personalidad, estilo de escritura, comportamiento, evaluación de rendimiento e incluso sesgos políticos. 

Se aseguró que el método para poner a prueba este funcionamiento es por pruebas A/B, que reciben comentarios para luego ser evaluados en cuanto a rendimiento de la IA. 

Ante esta explicación, comentaron que estarían tratando de tomar decisiones respecto de si el nuevo modelo es mejor a la versión anterior para un usuario real, explica Infobae

Otros errores

Según Business Insider, usuarios han reportado que el bot de chat estaría respondiendo con groserías

Otros usuarios informaron que han tenido problemas cuando se pide una tarea que puede ser exhaustiva, pues el bot se niega a hacerlo bajo el argumento de "no poder completarla", pero le indica a usuarios cómo realizar la tarea, dejando claro que tiene las capacidades para acabar con dicha orden. 

Además, otros usuarios destacan que es muy complicado lograr que el usuario complete una tarea a la primera, por lo que se deben hacer correcciones hasta obtener la respuesta indicada, además de asegurar que sus respuestas están en declive

Obteniendo...
Obteniendo...
Obteniendo...
Obteniendo...
Obteniendo...
Obteniendo...
Obteniendo...
Obteniendo...
Obteniendo...
cerrar