banner
Centro de Noticias
La certificación ISO nos diferencia de nuestros competidores.

La IA se vuelve más inteligente, segura y visual con GPT

Jul 15, 2023

Si te suscribes a ChatGPT Plus, puedes probarlo ahora.

Sam Altman, director ejecutivo de OpenAI, hablando en febrero.

La base de tecnología de IA más novedosa recibió una gran actualización el martes con el lanzamiento GPT-4 de OpenAI ahora disponible en la versión premium del chatbot ChatGPT.

GPT-4 puede generar cadenas de texto mucho más largas y responder cuando las personas le envían imágenes, y está diseñado para hacer un mejor trabajo evitando los errores de inteligencia artificial visibles en el GPT-3.5 anterior, dijo OpenAI el martes. Por ejemplo, al realizar los exámenes de la abogacía que los abogados deben aprobar para ejercer la abogacía, GPT-4 se ubica en el 10% superior de las puntuaciones en comparación con el 10% inferior de GPT-3.5, dijo la compañía de investigación de IA.

GPT significa Transformador preentrenado generativo, una referencia al hecho de que puede generar texto por sí solo (ahora hasta 25.000 palabras con GPT-4) y que utiliza una tecnología de inteligencia artificial llamada transformadores en la que Google fue pionero. Es un tipo de IA llamado modelo de lenguaje grande, o LLM, que se entrena con grandes cantidades de datos recopilados de Internet y aprende matemáticamente a detectar patrones y reproducir estilos. Los supervisores humanos califican los resultados para guiar a GPT en la dirección correcta, y GPT-4 tiene más comentarios de este tipo.

OpenAI ha puesto GPT a disposición de los desarrolladores durante años, pero ChatGPT, que debutó en noviembre, ofrecía una interfaz sencilla que la gente corriente podía utilizar. Eso produjo una explosión de interés, experimentación y preocupación por las desventajas de la tecnología. Puede hacer de todo, desde generar código de programación y responder preguntas de exámenes hasta escribir poesía y proporcionar datos básicos. Es notable, aunque no siempre confiable.

ChatGPT es gratuito, pero puede fallar cuando la demanda es alta. En enero, OpenAI comenzó a ofrecer ChatGPT Plus por 20 dólares al mes con disponibilidad asegurada y, ahora, la base GPT-4. Los desarrolladores pueden registrarse en una lista de espera para obtener su propio acceso a GPT-4.

"En una conversación informal, la distinción entre GPT-3.5 y GPT-4 puede ser sutil. La diferencia surge cuando la complejidad de la tarea alcanza un umbral suficiente", dijo OpenAI. "GPT-4 es más confiable, creativo y capaz de manejar instrucciones mucho más matizadas que GPT-3.5".

Otro avance importante en GPT-4 es la capacidad de aceptar datos de entrada que incluyen texto y fotografías. El ejemplo de OpenAI es pedirle al chatbot que explique un chiste que muestra un voluminoso cable de computadora de décadas de antigüedad conectado al pequeño puerto Lightning de un iPhone moderno. Esta función también ayuda a GPT a realizar pruebas que no son solo textuales, pero aún no está disponible en ChatGPT Plus.

Otra es un mejor rendimiento al evitar problemas de la IA como las alucinaciones: respuestas fabricadas incorrectamente, a menudo ofrecidas con tanta autoridad aparente como las respuestas que la IA acierta. GPT-4 también es mejor para frustrar los intentos de hacer que diga algo incorrecto: "GPT-4 obtiene una puntuación un 40% más alta que nuestro último GPT-3.5 en nuestras evaluaciones internas de facticidad adversa", dijo OpenAI.

GPT-4 también agrega nuevas opciones de "dirección". Hoy en día, los usuarios de grandes modelos de lenguaje a menudo deben involucrarse en una elaborada "ingeniería de indicaciones", aprendiendo cómo incorporar claves específicas en sus indicaciones para obtener el tipo correcto de respuestas. GPT-4 agrega una opción de comando del sistema que permite a los usuarios establecer un tono o estilo específico, por ejemplo, código de programación o un tutor socrático: "Eres un tutor que siempre responde en el estilo socrático. Nunca le das la respuesta al estudiante, pero siempre Intente hacer la pregunta correcta para ayudarlos a aprender a pensar por sí mismos".

OpenAI reconoce deficiencias importantes que persisten con GPT-4, aunque también promociona avances para evitarlas.

"A veces puede cometer simples errores de razonamiento... o ser demasiado crédulo al aceptar declaraciones falsas obvias de un usuario. Y a veces puede fallar en problemas difíciles de la misma manera que lo hacen los humanos, como introducir vulnerabilidades de seguridad en el código que produce", OpenAI dicho. Además, "GPT-4 también puede equivocarse con confianza en sus predicciones, sin tener cuidado de verificar el trabajo cuando es probable que cometa un error".

Los modelos de lenguaje de gran tamaño pueden ofrecer resultados impresionantes, ya que parecen comprender grandes cantidades de temas y conversar en un lenguaje que suena humano, aunque algo forzado. Sin embargo, fundamentalmente, los LLM AI realmente no saben nada. Simplemente son capaces de unir palabras de maneras estadísticamente muy refinadas.

Este enfoque estadístico, pero fundamentalmente algo vacío, del conocimiento llevó a los investigadores, incluidos los ex investigadores de inteligencia artificial de Google, Emily Bender y Timnit Gebru, a advertir sobre los "peligros de los loros estocásticos" que vienen con grandes modelos de lenguaje. Las IA de modelos de lenguaje tienden a codificar sesgos, estereotipos y sentimientos negativos presentes en los datos de entrenamiento, y los investigadores y otras personas que utilizan estos modelos tienden a "confundir... las ganancias de rendimiento con la comprensión real del lenguaje natural".

El director ejecutivo de OpenAI, Sam Altman, reconoce los problemas, pero en general está satisfecho con el progreso mostrado con GPT-4. "Es más creativo que los modelos anteriores, alucina significativamente menos y es menos parcial. Puede aprobar un examen de la abogacía y obtener una puntuación de 5 en varios exámenes AP", tuiteó Altman el martes.

Una preocupación sobre la IA es que los estudiantes la utilicen para hacer trampa, por ejemplo al responder preguntas de ensayo. Es un riesgo real, aunque algunos educadores adoptan activamente los LLM como herramienta, al igual que los motores de búsqueda y Wikipedia. Las empresas de detección de plagio se están adaptando a la IA entrenando sus propios modelos de detección. Una de esas empresas, Crossplag, dijo el miércoles que después de probar unos 50 documentos generados por GPT-4, "nuestra tasa de precisión estuvo por encima del 98,5%".

OpenAI recibió un gran impulso cuando Microsoft dijo en febrero que estaba utilizando la tecnología GPT en su motor de búsqueda Bing, incluyendo funciones de chat similares a ChatGPT. El martes, Microsoft dijo que está utilizando GPT-4 para el trabajo de Bing. Juntos, OpenAI y Microsoft representan una importante amenaza de búsqueda para Google, pero Google también tiene su propia tecnología de modelo de lenguaje de gran tamaño, incluido un chatbot llamado Bard que Google está probando de forma privada.

También el martes, Google anunció que comenzará a realizar pruebas limitadas de su propia tecnología de inteligencia artificial para impulsar la redacción de correos electrónicos de Gmail y documentos de procesamiento de textos de Google Docs. "Con su socio colaborativo de IA, puede continuar refinando y editando, obteniendo más sugerencias según sea necesario", dijo Google.

Esa frase refleja el posicionamiento "copiloto" de la tecnología de inteligencia artificial de Microsoft. Llamarlo una ayuda al trabajo dirigido por humanos es una postura común, dados los problemas de la tecnología y la necesidad de una cuidadosa supervisión humana.

Microsoft utiliza la tecnología GPT tanto para evaluar las búsquedas que la gente escribe en Bing como, en algunos casos, para ofrecer respuestas conversacionales más elaboradas. Los resultados pueden ser mucho más informativos que los de los motores de búsqueda anteriores, pero la interfaz más conversacional que se puede invocar como opción ha tenido problemas que la hacen parecer desquiciada.

Para entrenar GPT, OpenAI utilizó el servicio de computación en la nube Azure de Microsoft, que incluye miles de unidades de procesamiento de gráficos o GPU A100 de Nvidia, unidas entre sí. Azure ahora puede utilizar los nuevos procesadores H100 de Nvidia, que incluyen circuitos específicos para acelerar los cálculos de los transformadores de IA.

Otro gran desarrollador de modelos de lenguaje, Anthropic, también presentó el martes un chatbot de inteligencia artificial llamado Claude. La empresa, que cuenta con Google como inversor, abrió una lista de espera para Claude.

"Claude es capaz de realizar una amplia variedad de tareas de procesamiento de texto y conversación mientras mantiene un alto grado de confiabilidad y previsibilidad", dijo Anthropic en una publicación de blog. "Claude puede ayudar con casos de uso que incluyen resúmenes, búsquedas, escritura creativa y colaborativa, preguntas y respuestas, codificación y más".

Es uno más entre una multitud creciente. El gigante chino de búsqueda y tecnología Baidu está trabajando en un chatbot llamado Ernie Bot. Meta, matriz de Facebook e Instagram, consolidó sus operaciones de IA en un equipo más grande y planea incorporar una IA más generativa en sus productos. Incluso Snapchat se está sumando al juego con un chatbot basado en GPT llamado My AI.

Espere más mejoras en el futuro.

"Hemos realizado el entrenamiento inicial de GPT-4 durante bastante tiempo, pero nos ha llevado mucho tiempo y mucho trabajo sentirnos listos para lanzarlo", tuiteó Altman. "Esperamos que lo disfruten y realmente apreciamos los comentarios sobre sus deficiencias".

Nota del editor: CNET está utilizando un motor de inteligencia artificial para crear algunas explicaciones de finanzas personales que nuestros editores editan y verifican. Para obtener más información, consulte esta publicación.

portátiles

Computadoras de escritorio y monitores

Accesorios de computador

Fotografía

Tabletas y lectores electrónicos

Impresoras 3D