Откакто съществуват чатботовете, те си измислят неща. Такива „халюцинации“ са неразделна част от начина, по който работят моделите на изкуствения интелект. Те обаче са голям проблем за компании като Google, която залага много на AI, тъй като правят генерираните отговори ненадеждни.
Затова и технологичният гигант пуска инструмент за справяне с този проблем. Наречен DataGemma, той използва два метода, за да помогне на големите езикови модели да проверяват фактите в отговорите си спрямо надеждни данни и да посочват източниците си по-прозрачно за потребителите.