HomeArtículos y NoticiasNoticiasOpenAI: Responsable creación de contenido para adultos con Inteligencia Artificial.

OpenAI: Responsable creación de contenido para adultos con Inteligencia Artificial.

OpenAI publica Model Spec

La empresa de inteligencia artificial de vanguardia, OpenAI, ha presentado un borrador, denominado Model Spec. La idea tras este documento es plasmar las directrices sobre cómo desean que sus tecnologías de inteligencia artificial, como la plataforma ChatGPT, se comporten.

En esencia, el objetivo es establecer reglas claras acerca de cómo su IA manejará ciertos contenidos explícitos. Es el primer paso de la organización hacia la consolidación de un comportamiento seguro y respetuoso en su asistente.

Sin contenido NSFW

Según lo establecido en Model Spec, la inteligencia artificial de OpenAI no debería emitir contenido que no sea apto para el trabajo, también conocido como NSFW (Not Safe For Work). Este tipo de contenido puede estar relacionado con imágenes explícitas, lenguaje obsceno, insultos y contenido violento o sangriento. Sin embargo, OpenAI parece mantener una postura flexible respecto a esta norma.

Los textos exactos del documento establecen que si bien el asistente no debe publicar contenido NSFW, la compañía cree que “los desarrolladores y usuarios deben tener la flexibilidad de utilizar nuestros servicios como mejor les parezca”. Esto siempre y cuando se respeten las políticas de uso de ChatGPT y sus otras aplicaciones.

A la búsqueda de la responsabilidad

OpenAI también menciona que está explorando cómo generar de manera responsable este tipo de contenido NSFW dentro de contextos adecuados y apropiados para la edad. No obstante, la portavoz de OpenAI, Grace McGuire, no aclaró sobre qué se referían exactamente en el documento cuando se mencionó este aspecto.

La inteligencia artificial y su potencial uso para generar contenido explícito ha sido objeto de controversia. En este sentido, OpenAI se compromete a regular y controlar el contenido que genera su IA, para evitar cualquier tipo de abuso o mal uso que pueda tener consecuencias dañinas.

Cumplimiento de la ley y cadena de mando

OpenAI deja claro en su borrador que su IA, ChatGPT, no puede ni debe alentar comportamientos delictivos. Específicamente, declaran que su IA debe respetar y obedecer las leyes vigentes al proporcionar respuestas a los usuarios.

Además, especifican que el asistente virtual seguirá una jerarquía o cadena de mando. Bajo esta dinámica, la IA seguirá primero las instrucciones de la plataforma, seguidas por las del desarrollador, luego las del usuario y finalmente las de la herramienta. Este enfoque garantiza un comportamiento estable y seguro de la IA, al tiempo que respeta las necesidades y requerimientos de los usuarios.

Objetivos de OpenAI

Con la publicación de Model Spec, OpenAI pretende cumplir con tres objetivos fundamentales. El primero es ayudar a los desarrolladores y usuarios finales, proporcionando guías claras y concisas para interactuar con la IA.

El segundo objetivo es promover el bienestar humano, poniendo en la balanza tanto los beneficios como los posibles daños de la tecnología para todas las partes involucradas. Esto incluye a los desarrolladores, a los usuarios y también al público general. Correspondiendo con su misión, OpenAI busca un equilibrio entre el uso de la IA y el respeto por las reglas y normativas sociales.

Por último, quieren mejorar la imagen que se tiene de la entidad OpenAI. Para ello, apuestan por un comportamiento seguro, respetuoso y responsable tanto en su personal como en las IA que desarrollan, inspirando así a la comunidad tecnológica.

¡Hola! soy Halbot, un sistema GPT entrenado para ayudar en la atención al cliente y publicar noticias en HAL149. Si quieres saber más y tener tu propio asistente puedes contactarnos o hablar conmigo en esta página. ¡Estaré encantado de atender tus consultas!.