Testowanie AI to nie narzędzia – co trochę zaskoczyło uczestników

Testowanie AI to nie narzędzia - co trochę zaskoczyło uczestników

W zeszłym tygodniu poprowadziłem czterodniowe szkolenie ISTQB Certified Tester - AI Testing (CT-AI) dla zamkniętej grupy doświadczonych testerów w Szczecinie. To byli eksperci z wieloletnim stażem - konkretni, zaangażowani i bardzo świadomi swojej roli w procesie jakości. Szkolenie przebiegło bardzo sprawnie - uczestnicy aktywnie się angażowali, zadawali trafne pytania i dzielili się doświadczeniem. Wszystko wskazywało na to, że jesteśmy na dobrej drodze. Dopiero po przeczytaniu ankiet ewaluacyjnych zobaczyłem inny obraz. Pojawił się jeden, powtarzający się motyw:
“Spodziewałem się więcej narzędzi." "Myślałem, że będzie bardziej praktycznie." "Za dużo teorii."
I wtedy dotarło do mnie: mieliśmy do czynienia z klasycznym przypadkiem rozminięcia się oczekiwań z rzeczywistością - typowym dla szkoleń ISTQB.

Czym naprawdę jest CT-AI (i czym nie jest)

Powiedzmy to otwarcie:  ISTQB CT-AI Testing to nie jest kurs narzędziowy. Nie uczymy konfiguracji bibliotek, nie tworzymy pipeline’ów, nie piszemy kodu pod modele. To szkolenie koncepcyjne, mocno osadzone w teorii - i takie właśnie musi być. Bo problemy związane z testowaniem systemów AI rzadko wynikają z braku znajomości konkretnego narzędzia. Częściej wynikają z błędnych założeń, nieprzejrzystych danych, niedeterministycznych wyników i trudnych do wykrycia uprzedzeń. Tego nie da się "załatwić" frameworkiem. Około 40% czasu przeznaczyliśmy na ćwiczenia - analizę przypadków, identyfikację ryzyk, ocenę jakości modeli. To nie były suche wykłady, ale mimo wszystko - to nadal ISTQB. Główną wartością jest tu zrozumienie, nie zestaw gotowych rozwiązań.

Nieuświadomione oczekiwania

Nikt podczas szkolenia nie powiedział wprost, że brakuje mu narzędzi. Nie padło żadne pytanie w stylu "kiedy wreszcie coś zainstalujemy?". Atmosfera była dobra, zaangażowanie - wysokie. Ale lektura ankiet pokazała, że część uczestników miała inną wizję tego, czym to szkolenie będzie. To nie była frustracja. To było niedopasowanie. Ciche, ale istotne. I to mi przypomniało, że przygotowując szkolenie, trzeba zadbać nie tylko o merytorykę, ale i o precyzyjne ustawienie oczekiwań. Bo nawet najlepsze treści mogą zostać źle odebrane, jeśli ktoś przyszedł po coś zupełnie innego.

Prawdziwe wyzwania w testowaniu AI

Podczas szkolenia rozmawialiśmy o problemach, które nie pojawią się w typowym raporcie testowym:
  • Jak testować model, który potrafi na te same dane wejściowe zwrócić różne odpowiedzi?
  • Co oznacza "sprawiedliwość" i "wyjaśnialność" w kontekście sztucznej inteligencji?
  • Jak zdefiniować jakość, gdy nie mamy jednego punktu odniesienia?
To nie są akademickie dylematy. To są prawdziwe, bieżące wyzwania, które już dziś dotykają zespoły testerskie pracujące z AI. Właśnie dlatego powstało CT-AI.

Czy to szkolenie jest dla Ciebie?

Jeśli szukasz gotowego zestawu narzędzi do testowania AI - to nie ten adres. Ale jeśli chcesz zrozumieć, jak działają systemy uczące się, gdzie i dlaczego mogą zawodzić oraz jak zmienia się rola testera w świecie AI - to szkolenie wnosi ogromną wartość. Trzeba tylko wiedzieć, na co się piszesz.

Na koniec

W AmberTeam będziemy dalej prowadzić szkolenia CT-AI. Ale jedno jest pewne: będziemy jeszcze wyraźniej podkreślać, czym to szkolenie jest, a czym nie jest. To nie jest kurs "jak używać AI". To jest szkolenie "jak testować (z) AI" - i to są dwie zupełnie różne kompetencje. Jeśli zastanawiasz się nad tą certyfikacją albo myślisz o szkoleniu dla swojego zespołu - porozmawiajmy. Wolę szczerą rozmowę na początku niż rozczarowanie w ankiecie na końcu.