Skrót RAG pojawia się w każdej rozmowie o AI w firmie. Poniżej: co to znaczy w jednym zdaniu, jaki problem rozwiązuje, jak działa „pod maską” (bez matmy), ile to kosztuje i kiedy nie warto w to iść.
RAG w jednym zdaniu
RAG (Retrieval-Augmented Generation) to sztuczna inteligencja, która zanim odpowie, najpierw szuka w Twoich dokumentach, a dopiero potem układa odpowiedź na podstawie znalezionych fragmentów – z możliwością wskazania źródeł.
Reszta tekstu to rozwinięcie tej definicji – tak, żebyś mógł świadomie rozmawiać z dostawcą.
Jaki problem RAG rozwiązuje?
Wyobraź sobie setki plików: umowy, aneksy, oferty, procedury. Pytanie: „Jakie mamy kary umowne w relacjach z klientem ABC?”
| Sposób | Co się dzieje |
|---|---|
| Bez AI | Ktoś przeklika archiwum – godziny. |
| Zwykły ChatGPT | Model nie zna Twoich plików; co najwyżej ogólne info z internetu. |
| Chat + wklejenie jednej umowy | Działa, ale musisz wiedzieć, który plik; aneks w innym pliku – łatwo przeoczyć. |
| RAG | System sam przeszukuje repozytorium, zbiera fragmenty z umów i aneksów, odpowiada z przypisami do dokumentów i stron. |
RAG to różnica między „mądrym czatem bez Twojego archiwum” a „asystentem z indeksem całej bazy”.
Powiązanie z szerszym obrazem: architektury AI od czatu do RAG opisujemy osobno – tu skupiamy się na mechanice RAG.
Jak to działa – trzy etapy (prosto)
1) Przygotowanie dokumentów (wdrożeniowo, w pętli)
- Plik (PDF, DOCX, skan) → tekst ( przy skanach OCR).
- Podział na mniejsze fragmenty – łatwiej trafić w sedno pytania.
- Zamiana fragmentów na reprezentacje numeryczne (embeddingi) – podobne znaczenie = „bliżej” w przestrzeni wektorowej.
- Zapis w bazie wektorowej zoptymalizowanej pod szybkie podobieństwo.
Dlatego śmieci na wejściu (złe skany, chaos w nazwach) dają słabe wyniki – to nie jest magia.
2) Pytanie użytkownika
Pytanie też zamieniane jest na wektor → wyszukanie k najbardziej podobnych fragmentów z bazy. Szuka się sensu, nie tylko identycznych słów (np. „kara umowna” i „penalizacja” mogą się spotkać).
3) Generowanie odpowiedzi
Wybrane fragmenty + pytanie trafiają do dużego modelu (np. GPT-4, Claude). Model nie powinien wymyślać zamiast cytować – ale always warto zweryfikować przypisy, zwłaszcza w prawie i finansach.
Co RAG daje w praktyce – przykład
Pytanie: „Jakie SLA obiecywaliśmy klientowi ABC w ostatnich umowach?”
Schemat odpowiedzi RAG:
W umowie ramowej z 2024 r. czas reakcji 4 h, rozwiązanie 24 h [1]. W aneksie z czerwca 2024 dla usług krytycznych reakcja 2 h [2].
[1]Umowa_ABC_2024.pdf, str. 8
[2]Aneks_06_2024.pdf, str. 2
Bez RAG – albo pamięć ludzka, albo ręczne szukanie.
RAG vs zwykły chat – tabela
| Cecha | ChatGPT bez bazy | Chat + wgrany plik | RAG |
|---|---|---|---|
| Zna Twoje dokumenty | Nie | Tylko wgrane (mało) | Duża baza |
| Sam wybiera pliki | Nie | Nie | Tak |
| Przypisy do źródeł | Nie | Częściowo | Tak |
| Trwała baza między sesjami | Nie | Nie | Tak |
| Koszt miesięczny (rząd wielkości) | niski | niski | wyższy + wdrożenie |
Kiedy RAG ma sens – a kiedy nie
Ma sens, gdy:
- jest dużo dokumentów i realny koszt czasu na szukanie;
- wiele osób korzysta z tej samej wiedzy;
- potrzebujesz śladów audytowych i odniesień do plików;
- treści są w miarę utrwalone (umowy, procedury), a nie tylko chaotyczne notatki bez aktualizacji.
Nie ma sensu (jeszcze), gdy:
- masz kilkanaście plików – szybciej wkleisz do czatu;
- potrzebujesz głównie maili, tłumaczeń, brainstormingu – wystarczy często prostsze narzędzie; zobacz naszą ofertę, gdzie łączymy automatyzację z procesami klienta;
- nikt nie dba o aktualność dokumentów w indeksie;
- jedna osoba rzadko szuka – trudno zwrócić inwestycję.
Czego RAG nie zrobi (żeby nie było rozczarowania)
- Nie zastąpi eksperta – nadal Ty lub specjalista weryfikujecie, zwłaszcza w regulowanych obszarach.
- Nie „myśli” jak człowiek – wyszukuje i składa odpowiedź z fragmentów; czegoś nie ma w bazie – nie „dopisze z głowy” poprawnie.
- Jakość = jakość bazy i konfiguracji.
- Halucynacje są rzadsze niż przy gołym czacie, ale możliwe – stąd przypisy są kluczowe.
Ile to kosztuje (orientacyjnie)
| Element | Widełki |
|---|---|
| Wdrożenie (platforma / lekki zakres) | ok. 1 000–5 000 EUR |
| Wdrożenie (rozwiązanie dedykowane) | często 15 000–60 000+ EUR |
| Infrastruktura miesięcznie | setki EUR (model, baza, hosting w UE) |
| Utrzymanie | zależnie od SLA i złożoności |
Zwrot: gdy zespół realnie odzyskuje wiele godzin tygodniowo – policz stawkę godzinową × czas. Przy wdrożeniu ograniczonym zakresem pomaga podejście MVP.
Jak zacząć rozsądnie
- Opisz problem liczbami – ile czasu idzie na szukanie, ile osób, jakie błędy z tego wynikają.
- Inwentaryzacja dokumentów – ile, gdzie, w jakim stanie.
- Kto ma widzieć co – bez tego nie projektujesz bezpiecznego RAG.
- Pilot – jeden zespół, ograniczony zestaw plików, potem skala.
Gdy klienci mają powtarzalne pytania przed zakupem, część logiki „odpowiedzi z bazy wiedzy” można też rozważyć po stronie konfiguratorów i prezentacji online – to nie zastępuje RAG wewnętrznego, ale bywa uzupełnieniem lejka.
Podsumowanie
RAG = wyszukanie w Twoich dokumentach + odpowiedź modelu z odwołaniami do źródeł.
To inżynieria, nie slogan. Dobrze wdrożone – oszczędza czas i ogranicza ryzyko „zgadywania”. Źle wdrożone – frustracja i zmarnowany budżet.
Chcesz zobaczyć RAG na przykładzie dokumentów z Twojej branży? Umów konsultację lub napisz – bez obowiązku technicznego słownika.






