César Estrebou, investigador y especialista en Computación Gráfica, Imágenes y Visión por Computador destacó como “impresionante” el anuncio de la empresa OpenAI respecto a las actualizaciones del ChatGPT.
En contacto con “Es Un Montón” por Radio Provincia, el docente de la Facultad de Informática de la UNLP especificó que durante un tiempo “la tecnología venía evolucionando bastante rápido y lo que tenías eran modelos que en alguna tarea eran buenos. Y en el caso del Chat GPT uno podía interactuar a través de texto y devolvía texto”.
Pero, “luego fueron apareciendo otras herramientas multimodales que permitían interactuar con imágenes, video, música, canciones… Pero no había algo como lo que presentó OpenAI que es impresionante porque lo que te ofrece es una interacción en tiempo real, que es difícil de hacer por toda la cantidad de información que se está procesando en el momento” enfatizó el especialista y agregó que “lo que también tiene de interesante es la velocidad en que se reconoce el entorno y la calidez de la respuesta de la inteligencia artificial. Habla como una persona y le pone emoción a lo que dice. Si estás hablando en tono cómico se ríe y también uno puede pedirle que hable de cierta manera como que sea sarcástico”.
“Eso le da una fluidez a la interacción que la hace mucho más cercana a diferencia de otras herramientas. Y además, estos modelos aprenden mucho de la manera de comportarse porque abstraen los comportamientos que le pedís y los pueden volcar”, informó. Y, acto seguido aclaró que “lo que se mostró no va a estar inmediatamente disponible para todos porque eso requiere de mucho hardware y dispositivos de cómputo y además como esto también es un negocio y la empresa tienen clientes, estos seguro van a tener la prioridad”.
Por otra parte, explicó que si bien esta herramienta “puede hacer cosas de determinada complejidad; por el momento va a tener limitaciones” es decir que si bien "tiene un conocimiento amplio de tantas cosas y aprendió a extraer algunos comportamientos para generar información a partir de varios temas” aún “no va a poder competir con un experto”.
Y, detalló que “uno de los principales problemas que tiene es la cantidad de datos que puede recordar de lo que se habla. Eso se llama ventana de contexto y se mide con la palabra técnica “Token”.
Estrebou ejemplificó: “8000 tokens son alrededor de 4000/6000 palabras” y señaló que “uno de los anuncios que hizo Google ayer es que su asistente tiene una ventana de 1 millón de tokens, y esto quiere decir que eso permite guardar mucha información en materia de imagen, texto y sonido. Pero de cualquier manera es limitada y no cuenta con la posibilidad de tener un recuerdo lejano”.
Finalmente, advirtió que “hoy en día si no se utiliza bien esta aplicación es la AI la que hace todo el trabajo” y desarrolló: “yo atravesé todo el proceso de desarrollo de la tecnología desde Bolivar. Y en la secundaria, si quería buscar información sobre tecnología tenía que ir a la biblioteca, consultar a conocidos, leer fotocopias y en este camino fui evolucionando y aprendiendo mis mecanismo de aprendizaje junto con algunas características que moldean el aprendizaje como la persistencia, la tolerancia a la frustración y a medida que la tecnología fue avanzando facilitó mi trabajo, porque uno busca y luego compagina. Pero yo ya tenía aprendido todo el proceso”.