El avance de los chatbots y su uso público para la investigación alrededor de los usos de la inteligencia artificial se vio frenado luego del desastre que hace cerca de cinco años se vivió alrededor de Taye, el desarrollo de Microsoft que fue cerrado a menos de 24 horas de haberse hecho público. Meta quiere dar la vuelta a este escenario.
El equipo de investigación AI de Meta, en horas recientes, hizo pública la última versión de su chatbot Blenderbot, una tercera generación de 175 mil millones de parámetros.
Con la prueba pública de este chatbot, Meta quiere cerrar la brecha de abastecimiento de conocimiento que padecen estos desarrollos de inteligencia artificial.
Por lo general, los chatbots se entrenan en espacios controlados que intenta emular situaciones reales controlando los riesgos de poner sobre la mesa aprendizajes no deseados, como lenguaje o expresiones discriminatorias o de odio.
Aunque en los laboratorios se pueden replicar muchos escenarios, es imposible cubrir todas las aristas disponibles, con lo que la prueba pública de Meta es un paso para mejorar el aprendizaje con base en experiencias reales.
Mark Zuckerberg, CEO de Meta, o explica de manera clara:
«Los investigadores no pueden predecir o simular todos los escenarios conversacionales solos en entornos de investigación. El campo de la IA todavía está lejos de los sistemas de IA verdaderamente inteligentes que pueden entendernos, interactuar y chatear con nosotros como lo pueden hacer otros humanos. Para construir modelos que sean más adaptables a los entornos del mundo real, los chatbots necesitan aprender de una diversidad, perspectiva amplia con personas ‘en la naturaleza'».
Lo que puede hacer el nuevo chatbot de Meta
La tercera generación de BledeBot promete superar las capacidades de recordación de información que su antecesor. Mientras el BladeBot 2 podría recobrar datos sobre conversaciones anterior, tales como buscar detalles sobre un tema determinado en internet, el nuevo chatbot podría no solo evaluar los datos que toma de web, sino también aquellos que provienen de las personas con las que habla.
En este proceso se ha cuidado la entrega de respuesta poco satisfactorias con la incorporación de comentarios del usuario al modelo para evitar que dicho error se replique. Adicional, se emplea un algoritmo para detectar respuestas poco fiables o con malas intenciones de los humanos para reducir los margenes de un mal aprendizaje.
«Usando datos que indican buenas y malas respuestas, podemos entrenar al clasificador para penalizar declaraciones de baja calidad, tóxicas, contradictorias o repetitivas, y declaraciones que generalmente no son útiles. Nuestra demostración pública , interactiva y en vivo permite que BlenderBot 3 aprenda de las interacciones orgánicas con todo tipo de personas.Alentamos a los adultos en los Estados Unidos a probar la demostración, mantener conversaciones naturales sobre temas de interés y compartir sus respuestas para ayudar a avanzar en la investigación». mencionó Zuckerberg en una entrada de blog.
Con estos avances se espera que el nuevo chatbot de Meta pueda establecer conversaciones más naturales, apoyado de su modelo de idioma OPT-175B que se ha actualizado para ser 60 veces más grande que el modelo anterior.
«Descubrimos que, en comparación con BlenderBot 2, BlenderBot 3 proporciona una mejora del 31 por ciento en la calificación general de las tareas de conversación, según lo evaluado por juicios humanos. También se considera que tiene el doble de conocimientos, mientras que los hechos son incorrectos el 47 % menos de las veces. En comparación con GPT3, en preguntas de actualidad se encuentra más actualizado el 82 % de las veces y más específico el 76 % del tiempo», confirmó el CEO de Meta.