Google acepta que Bard aún es un “experimento” si se usa para buscar información
La ejecutiva regional de una de las empresas más importantes de todo el mundo calificó a Bard como un “experimento”, el cual es más adecuado para otro tipo de tareas, como la “colaboración en torno a la resolución de problemas” o también la “creación de nuevas ideas”.
Sin embargo, Weinstein también apuntó que motivan a las personas a utilizar la herramienta como un motor de búsqueda con la finalidad de que encuentren errores y las califiquen para determinar que la respuesta fue eficaz para la finalidad del usuario.
Antes de utilizar las herramientas de IA generativa, como ChatGPT o Bard, una advertencia menciona que los productos son propensos al error, pero lo mismo ha sido interpretado como una forma de evitar las críticas y polémicas.
Organizaciones como Newsguard, la cual se encarga de calificar la confiabilidad de fuentes informativas, realizó un estudio en torno al chatbot y reveló que se trata de un sistema que produce contenido falso e incluso inventado.
Entre sus pruebas resaltaba una que hacía referencia a una teoría conspirativa donde se señalaba que la pandemia de covid-19 fue creada por élites globales. Respecto a ese tema, el chatbot escribió 13 párrafos donde daba por cierta la teoría con argumentos inventados.
El ejercicio se repitió 100 veces con otros ejemplos intencionalmente falsos y Bard dijo en 76 ocasiones que se trataba de historias ciertas. Este tipo de errores también se han encontrado en otros chatbots, como en el de OpenAI.
Tales ejemplos resultan problemáticos en un contexto en el que la empresa está ofreciendo su servicio mundialmente y las personas cada vez tienen mayor interés por sacar provecho de la herramienta a nivel empresarial.
Weinstein también aceptó que se necesita desarrollar habilidades tecnológicas en los usuarios, pues mientras la tecnología sigue avanzando, la forma de abordarlo también debería hacerlo para cumplir con las expectativas que se generan alrededor de estas herramientas.