# Retrospektywa Sprintu nr 8

  • Data: 2026-01-23
  • Uczestnicy: Kateryna Lytvyn (Frontend/PM), Kyrylo Riabchenko (Frontend), Mykyta Klymenko (Backend/DevOps), Sebastian Wróblewski (QA/Tester)

# 1. Co poszło dobrze?

  • ✓ Udało się utrzymać spójny kierunek rozwoju produktu zgodny z PRD: rozwijaliśmy rekomendacje AI oraz przepływy kluczowe dla użytkownika (podróż → miejsca → sugestie).
  • ✓ Zespół szybko identyfikował i opisywał problemy integracyjne (OAuth, maile, konfiguracje prod) oraz dostarczał dane do diagnozy (logi/URL-e żądań/objawy).
  • ✓ Współpraca FE↔BE podczas debugowania była efektywna: komunikaty UI, obsługa błędów i poprawki po stronie API były wprowadzane iteracyjnie.
  • ✓ QA zebrało materiał do poprawy jakości: testy manualne UI i raporty błędów pozwoliły urealnić listę problemów i priorytetów na następny sprint.

# 2. Co można poprawić?

  • ✗ Wydania na produkcję ujawniły braki w „release readiness”: różnice konfiguracji dev/prod (OAuth redirect_uri, mail provider) powodowały regresje w krytycznych user-flow.
  • ✗ Brak formalnej checklisty wdrożeniowej i smoke testów przed deployem skutkował hotfixami po wdrożeniu oraz większym obciążeniem jednej osoby (Backend/DevOps).
  • ✗ Zadania integracyjne nadal bywały zbyt ogólne (brak kontraktu request/response i jednoznacznych kryteriów akceptacji), co zwiększało liczbę poprawek „w trakcie”.
  • ✗ Testy nie zawsze miały stabilne, deterministyczne dane wejściowe (seedery / scenariusze), przez co część wyników testów była trudna do odtworzenia.

# 3. Dyskusja i wnioski

Główny problem do rozwiązania: Brak procesu „release readiness” (checklista + smoke testy) dla integracji zewnętrznych oraz niedomknięty standard kontraktowania zadań FE↔BE.

Analiza (5 Whys):

Dlaczego na produkcji pojawiały się problemy w logowaniu i mailach? → Bo konfiguracja prod różniła się od dev i nie była walidowana przed wdrożeniem.
Dlaczego nie była walidowana? → Bo nie mieliśmy formalnej checklisty release i krótkich smoke testów „przed deployem”.
Dlaczego nie mieliśmy checklisty i smoke testów? → Bo sprint skupiał się na dowiezieniu funkcji, a „gotowość wydania” nie była częścią Definition of Done.
Dlaczego nie była częścią DoD? → Bo nie przypisaliśmy właściciela procesu release i nie mieliśmy stałego rytuału weryfikacji przed wdrożeniem.
Wniosek: Dodajemy Release Checklist oraz smoke testy jako element DoD dla funkcji zależnych od integracji (OAuth, mailing, mapy) oraz wzmacniamy DoR/DoD dla zadań FE↔BE.


# 4. Plan działania

# Działanie 1: Release Checklist dla integracji (OAuth / mailing / mapy / CORS)

  • Co zrobimy? Przygotujemy jednolitą checklistę wdrożeniową dla dev/stage/prod: redirect_uri (Google/Facebook), konfiguracja maili, referery Google Maps, baseURL, CORS, callback routes, zmienne ENV. Checklista będzie wykonywana przed każdym deployem.
  • Kto jest odpowiedzialny? Mykyta (Backend/DevOps) i Sebastian (weryfikacja wykonania).
  • Jak zmierzymy sukces? Spadek liczby hotfixów po wdrożeniu oraz brak krytycznych regresji w auth/mail/mapach po deployu.

# Działanie 2: Smoke testy pre-prod (15 minut)

  • Co zrobimy? Wprowadzimy stały zestaw smoke testów: rejestracja/logowanie (OAuth), utworzenie podróży, zaproszenie, dodanie miejsca, ustawienie preferencji, rekomendacja AI, wygenerowanie trasy.
  • Kto jest odpowiedzialny? Sebastian (QA) i Kyrylo (FE) jako wsparcie w scenariuszach UI.
  • Jak zmierzymy sukces? Więcej błędów wykrytych przed produkcją, mniej incydentów po wdrożeniu.

# Działanie 3: Standard kontraktowania zadań FE↔BE (DoR + DoD)

  • Co zrobimy? Każde zadanie integracyjne będzie miało: endpointy, przykłady request/response, definicję błędów, kryteria akceptacji oraz mini-checklistę testów (FE/BE/QA). Brak tych elementów równa się nie wchodzeniu zadania do sprintu (DoR).
  • Kto jest odpowiedzialny? Kateryna (PM/FE), Mykyta (BE), Sebastian (QA).
  • Jak zmierzymy sukces? Mniej doprecyzowań w trakcie sprintu i mniej reworku po integracji.