| Tytuł: | Trust Framework for AI-Assisted Development |
| Kod: | ai-development |
| Kategoria: | AI |
| Forma: | 20% wykłady / 80% warsztaty hands-on |
| Czas trwania: | 3 dni |
| Zapisy: |
Indywidualne zamówienie i dopasowanie dla grupy. |
| Logistyka: |
W siedzibie klienta lub w innym dowolnym miejscu. |
Przestań być wąskim gardłem — zbuduj bramki jakości, które pozwolą Ci zaufać kodowi z AI bez czytania każdej linijki.
LLM-y generują kod szybciej niż jakikolwiek człowiek jest w stanie go zweryfikować. To jednocześnie problem i szansa. Ludzkie code review się nie skaluje. Jeśli w Twoim zespole zaufanie kodowi (szczególnie LLMowemu) wymaga, żeby ktoś czytał każdą linijkę, nigdy nie będziesz szybszy niż najwolniejszy reviewer w zespole. Płacisz za prędkość AI, ale dostajesz przepustowość ludzkiego review.
Rozwiązaniem są bramki jakości (quality gates) — warstwy weryfikacji operujące powyżej kodu. Czy spełnia specyfikację? Czy scenariusze behawioralne przechodzą? Czy CI jest zielone na trunku? Czy telemetria produkcyjna potwierdza oczekiwane zachowanie po deployu? Każda bramka buduje zaufanie bez konieczności czytania implementacji. Razem pozwalają Twojemu zespołowi wykorzystać pełną prędkość generowania kodu przez LLM-y.
LLM-y nie różnią się aż tak bardzo od ludzkich developerów. Popełniają błędy, robią skróty, gubią edge case'y i dryfują od intencji — tak samo jak ludzie, tylko szybciej. Bramki jakości potrzebne do zaufania outputowi LLM-ów to dokładnie te same, które inżynierowie budowali przez ostatnie dekady, żeby ufać sobie nawzajem. Specyfikacje, testy, CI, feature flagi, monitoring — nic z tego nie jest nowe. AI po prostu sprawia, że staje się to niezbędne.
Seniorzy, tech leadzi i architekci w zespołach, które już korzystają z narzędzi AI do kodowania (Claude Code, Copilot, Cursor) i wiedzą, że ludzkie review nie skaluje się do tempa kodu generowanego przez AI. Potrzebują bramek jakości, które pozwolą zespołowi wykorzystać pełną prędkość LLM-ów zamiast wąskiego gardła na ręcznym review.
Idea renesansowej pracowni - Bottegi zakłada nieustanną pracę jej członków i dzielenie się jej wynikami.
Wiele problemów nad którymi pracujemy zostało już dawno temu rozwiązane. Wystarczy "jedynie" zbudować model problemu oparty o odpowiednią strukturę danych i algorytm. Łatwo powiedzieć... ale jak w gąszczu pojęć domenowych zauważyć analogię do... grafu, kolejki priorytetowej, algorytmu plecakowego? W środku swojej czaszki masz strukturę mózgu, która zajmuje się generalizowaniem i przenoszeniem znaczeń - jeto to hipokamp. W trakcie prezentacji pokażemy co konkretne techniki wnioskowania, które pozwolą wyrachować clue problemu i oddzielić go od specyficznych dla biznesu pobocznych modeli. Sieć neuronowa hipokampa działa za zupełnie innej zasadzie niż sieć LLM.
|
Autor Bottega: |
|
|
Powiązane szkolenia dedykowane: |
Modularyzacja systemu - analiza granic i projektowanie API Architektura aplikacji i systemów - Wzorce architektoniczne dla projektantów Projektowanie systemów modularnych, rozproszonych i Event Driven: podejście praktyczne Microservices - podejście kompleksowe oparte o DDD i Cloud Domain Driven Design - zaawansowane techniki modelowania i archetypy (część 3) |
|
Powiązane usługi: |
Audyty architektury Wdrażanie Machine Learning Wdrażanie Machine Learning Wdrażanie Machine Learning Audyty architektury Wdrażanie Machine Learning |