Jak Klemens.AI ogranicza halucynacje, czyli dlaczego nasza platforma nie zmyśla
- Kamil Spletsteser

- 4 mar
- 3 minut(y) czytania
Zaktualizowano: 5 mar

Realny problem w biznesie
Każdy, kto korzystał z ChatGPT czy podobnych narzędzi AI, zna ten moment: zadajesz pytanie, dostajesz płynną, przekonującą odpowiedź, a potem okazuje się, że połowa informacji jest zmyślona. AI podaje nieistniejące paragrafy ustaw, cytuje publikacje, które nigdy nie powstały, albo z pełną pewnością twierdzi coś, co jest po prostu nieprawdą. To zjawisko nazywamy halucynacjami AI. I to nie jest błąd, który da się naprawić jedną aktualizacją, to fundamentalna cecha dużych modeli językowych. Modele te są trenowane, żeby generować tekst, który brzmi prawdopodobnie. Nie mają wbudowanego mechanizmu sprawdzania, czy to, co mówią, jest prawdą.
W środowisku biznesowym to nie jest drobna niedogodność. Gdy prawnik polega na AI, które cytuje nieistniejący przepis, albo analityk buduje rekomendację na zmyślonych danych, konsekwencje mogą być poważne. Dlatego w Klemensie od samego początku projektowaliśmy system tak, żeby halucynacje ograniczyć do absolutnego minimum.
Odpowiedź zawsze oparta na dokumentach
Fundamentalna różnica między Klemens.AI a ogólnym chatbotem polega na tym, skąd pochodzi odpowiedź. Typowy chatbot odpowiada na podstawie swojej „wiedzy ogólnej", czyli tego, czego nauczył się podczas treningu na miliardach stron internetowych. Problem w tym, że ta wiedza jest statyczna, nieprecyzyjna i pełna sprzeczności.
Klemens.AI działa inaczej. Zanim odpowie na pytanie, przeszukuje wyłącznie Twoje dokumenty: regulaminy, procedury, umowy, raporty, bazy wiedzy. Odpowiedź jest syntezą tego, co znalazł w konkretnych źródłach. Jeśli informacji nie ma w dokumentach, Klemens.AI o tym poinformuje, zamiast wymyślać odpowiedź.
To podejście nazywa się RAG (Retrieval Augmented Generation): model AI nie odpowiada „z głowy", ale na podstawie dostarczonych mu materiałów. To tak, jakby zamiast pytać kolegę, który „chyba coś o tym słyszał", poprosić analityka, który najpierw przejrzy odpowiednie dokumenty i dopiero potem nam odpowie.
Cytowania ze źródeł: wiesz, skąd pochodzi każda informacja
Sama odpowiedź oparta na dokumentach to za mało. Kluczowe jest to, żeby użytkownik mógł zweryfikować każdą informację.
Dlatego Klemens do każdej odpowiedzi dołącza cytowania: wskazania na konkretne fragmenty dokumentów, z których pochodzi dana informacja. Nie chodzi o ogólne „źródło: regulamin firmy", ale o precyzyjne powiązanie: ten fragment odpowiedzi pochodzi z tego konkretnego akapitu tego konkretnego dokumentu. Dzięki temu użytkownik nie musi ślepo ufać AI. Może jednym kliknięciem sprawdzić źródło i sam ocenić, czy odpowiedź jest prawidłowa. To fundamentalna zmiana w relacji człowiek - AI: z „wierzę, bo AI tak powiedziało" na „wiem, bo widzę, skąd to pochodzi".
Twarde ograniczenia w zachowaniu AI
Oprócz architektury opartej na dokumentach, Klemens.AI ma wbudowane reguły zachowania, które eliminują typowe źródła halucynacji:
Zakaz wymyślania linków
Modele AI uwielbiają generować URL-e, które wyglądają wiarygodnie, ale prowadzą donikąd. Klemens.AI ma bezwzględny zakaz tworzenia jakichkolwiek linków, odnośników czy adresów stron. Jedyne linki w odpowiedziach to te, które rzeczywiście istnieją w dokumentach źródłowych.
Zakaz odsyłania do zewnętrznych źródeł
Klemens.AI nie odpowiada „skonsultuj to z prawnikiem" ani „sprawdź na stronie ministerstwa". Jeśli informacja jest w dokumentach, to Klemens ją podaje. Jeśli jej nie ma, to mówi wprost, że nie znalazł odpowiedzi. Nie udaje, że wie, gdzie szukać dalej.
Odpowiedź ekspercka, nie ogólnikowa
Klemens.AI jest zaprojektowany tak, żeby odpowiadać jako ekspert, który przeanalizował dokumenty. Nie powtarza ogólnikowych porad z internetu, a podaje konkretne informacje z konkretnych źródeł.
Ponowna analiza zamiast zgadywania
Wyobraź sobie taką sytuację: rozmawiasz z Klemens.AI o regulaminie pracy, a potem pytasz o coś z zupełnie innego dokumentu. Prosty chatbot spróbowałby odpowiedzieć na podstawie wcześniejszego kontekstu rozmowy i prawdopodobnie zmyśliłby odpowiedź. Klemens.AI ma wbudowaną strategię konserwatywnej reanalizy. Gdy wykryje, że pytanie dotyczy nowego tematu albo że nie jest pewien odpowiedzi na podstawie dotychczasowej rozmowy- automatycznie wraca do dokumentów i przeszukuje je od nowa. Zasada jest prosta: lepiej poświęcić kilka sekund na ponowne przeszukanie źródeł niż ryzykować nieprawidłową odpowiedź.
Minimalizacja losowości
Modele AI mają parametr zwany „temperaturą". Im wyższa, tym bardziej kreatywne (ale i nieprzewidywalne) są odpowiedzi. Wysoka temperatura jest świetna do pisania wierszy, ale fatalna, gdy potrzebujesz precyzyjnej odpowiedzi na pytanie prawne.
Klemens stosuje niską temperaturę wszędzie tam, gdzie liczy się precyzja, szczególnie przy klasyfikacji treści i podejmowaniu decyzji. Kreatywność zostawiamy tam, gdzie jest potrzebna (np. przy tworzeniu dokumentów), ale przy wyszukiwaniu informacji stawiamy na powtarzalność i dokładność.
Czy halucynacje można wyeliminować w 100%?
Szczerze? Nie. Żaden system AI na świecie nie gwarantuje 100% poprawności odpowiedzi, tak samo jak żaden człowiek nie jest nieomylny. Jednak można zrobić ogromną różnicę między „AI, które regularnie zmyśla" a „AI, które odpowiada na podstawie dokumentów i pozwala zweryfikować każdą informację". Klemens jest zaprojektowany tak, żeby być w tej drugiej kategorii. Nasze podejście to wielowarstwowa ochrona: dokumenty jako jedyne źródło prawdy, cytowania umożliwiające weryfikację, twarde reguły zachowania, konserwatywna strategia reanalizy i kontrolowana losowość. Każda z tych warstw samodzielnie zmniejsza ryzyko halucynacji, a razem tworzą system, któremu możesz zaufać w codziennej pracy.



Komentarze