HomeBlogArtículos sobre IAChatGPT no miente porque no sabe la verdad

ChatGPT no miente porque no sabe la verdad

Todo el debate sobre ChatGPT y otros modelos alucinando o inventando respuestas se basa en un gran malentendido.

El objetivo fundamental de la GPT es que las máquinas tengan habilidades lingüísticas para que puedan interactuar contigo como una persona real. Estos modelos han sido entrenadas en miles de millones de páginas web para crear contenidos, no para responder con precisión a todas las preguntas posibles. Y hay razones técnicas y filosóficas para que esto sea así.

Para utilizar ChatGPT como una fuente de datos factuales es necesario entrenar el modelo con bases de datos genéricas (a nivel sectorial) o de empresa. La precision de las respuestas será tan buena como tu base de conocimientos. Es decir, para dar respuestas correctas a preguntas objetivas, el modelo debe estar entrenado en temas específicos.

Esto es una mala noticia para los que piensan que ChatGPT es una enciclopedia parlante. Pero es una buena noticia para las empresas que pueden invertir en preparar el modelo para que proporcione datos reales y objetivos con fines de atención al cliente, investigación, etc.

Para los que les gusta el código en este gist reviso paso a paso cómo y por qué GPT alucina, y cómo evitarlo.

chatgpt no miente porque no sabe la verdad


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Contacto

* Campos obligatorios