Polskojęzyczne, generatywne, neuronowe modele językowe Qra zostały bezproblemowo oraz szybko nauczone na podstawie sporego korpusu danych zawierającego teksty tylko w języku polskim. Wykorzystany korpus liczył inicjalnie do 2 TB surowych danych tekstowych, które, w dalszej kolejności, uległy dwukrotnemu zmniejszeniu w wyniku procesów deduplikacji jak też oczyszczenia. Są to pierwsze modele wytrenowane na tak wielkim zasobie polskich tekstów - do ich uczenia użyto sporych mocy obliczeniowych. Zbudowano w sumie 3 modele Qra, które różnią się złożonością - są to: Qra 1B, Qra 7B i Qra 13B. Modele Qra 7B oraz Qra 13B uzyskują istotnie wysoki wynik perplexity, czyli zdolności do modelowania języka polskiego w zakresie jego rozumienia, warstwy leksykalnej i gramatyki. Testów pomiaru perplexity dokonano m.in. na zbiorach 10 tysięcy zdań ze zbioru testowego PolEval-2018 oraz 5 tysięcy długich, bardziej wymagających dokumentów stworzonych w 2024 roku. Zgodnie z planami, modele językowe Qra będą stanowić podstawę rozwiązań informatycznych dla obsługi spraw i procesów, które wymagają właściwego zrozumienia języka polskiego. Już teraz potrafią generować poprawne gramatycznie, stylistycznie odpowiedzi wyrażone w języku polskim. Generowane treści są na dobrą sprawę istotnie wysokiej jakości, co potwierdza m.in. miara perplexity. Teraz rozpoczną się prace nad strojeniem modeli w celu sprawdzenia ich możliwości pod kątem takich zadań i problemów jak: klasyfikacja tekstów, dokonywanie ich streszczeń i odpowiadanie na pytania.