Wróć do listy odcinków
#25 Małe modele AI drogą do cyfrowej suwerenności | Marek Zibrow
Rozmowa • Odcinek 25 • 1 h 47 min

#25 Małe modele AI drogą do cyfrowej suwerenności | Marek Zibrow

Opis odcinka

Aplikacja AI to obecnie najsłabsze ogniwo w systemie bezpieczeństwa firmy, a jej „zatrucie” jest prostsze, niż mogłoby się wydawać. W świecie, gdzie niewidoczny tekst w dokumencie CV lub zwykła naklejka na znaku drogowym stają się skuteczną bronią, tradycyjne zapory ogniowe stają się niemal bezużyteczne.



Dołącz i buduj AI razem z nami:

https://spolecznosc.aininjas.pl/



🔔 Subskrybuj, aby nie przegapić nowych odcinków!



W tym odcinku podcastu analizujemy anatomię ataków na modele językowe – od manipulowania danymi wejściowymi po groźne zjawisko „model inversion” i wycieki danych treningowych. Dowiesz się, dlaczego trend „vibe codingu” bez rygorystycznego nadzoru DevSecOps to ryzyko, którego nie warto podejmować, oraz jak techniki „white-on-white” pozwalają przejmować kontrolę nad procesami decyzyjnymi algorytmów. Rozmawiamy także o budowaniu cyberodporności w sektorze finansowym oraz o tym, dlaczego przyszłość bezpiecznego AI w biznesie należy do małych, lokalnie wdrażanych modeli SLM.


Z tego odcinka dowiesz się:

🔹 Jakie są główne techniczne zagrożenia dla modeli AI i na czym polega ich celowa manipulacja.

🔹 Dlaczego małe modele językowe (SLM) stanowią bezpieczniejszą i tańszą alternatywę dla rozwiązań typu LLM.

🔹 Jakie wyzwania prawne i operacyjne nakładają na firmy regulacje AI Act oraz dyrektywa DORA.

🔹 Dlaczego trend „vibe codingu” może zagrażać bezpieczeństwu oraz architekturze tworzonych aplikacji.

🔹 Jak bezpiecznie projektować procesy SDLC w dobie powszechnej generacji kodu przez sztuczną inteligencję.

🔹 Dlaczego problem braku wyjaśnialności decyzji algorytmicznych jest kluczową barierą we wdrażaniu AI w finansach.

🔹 Jakie są skuteczne metody weryfikacji danych wejściowych i wyjściowych w celu ochrony prywatności użytkowników.


🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/

👥 Gość: https://www.linkedin.com/in/marekzibrow/


⭐️ Zobacz też:

🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8

🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA

🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg

🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ

🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE


Rozdziały:
Dziś w odcinku
Wprowadzenie
Marek Zibrow
Studia na Stanfordzie vs Polsce
Muzyka elektroniczna i syntezatory
Sztuczna inteligencja w muzyce
Czy firmy ignorują ryzyka AI?
5 klas zagrożeń AI
Ataki adwersarialne na modele
Ataki impersonacyjne i uniki AI
Zatruwanie danych treningowych (Data Poisoning)
Problem uprzedzeń i algorytmiczny rasizm
Prywatność i wycieki z modeli
Jak bezpiecznie wdrażać AI?
SLM vs LLM: Co wybrać?
Zastosowanie modeli SLM w bankowości
Pułapka budowania agentów ogólnych
Dlaczego vibe coding to błąd?
Bezpieczne programowanie w dobie AI
AI Act a dane osobowe
Czym jest dyrektywa DORA?
Czy regulacje blokują innowacje AI?
Weryfikacja bezpieczeństwa odpowiedzi AI
SDLC i testy jakości kodu
Polecane materiały i inspiracje
Zakończenie

Transkrypcja

Krzysiek

Krzysiek

Cześć, dzisiaj moim gościem jest Marek Zibrow. Siemanko.

M

Marek

Cześć.

Krzysiek

Krzysiek

Zacznijmy może na początek od tego, abyś nam powiedział kim jesteś i czym się zajmujesz na co dzień.

M

Marek

Od 30 lat zajmuję się szeroko pojętym IT. Na co dzień w tej chwili zajmuję się cyberbezpieczeństwem. Pracuję w banku, dużej grupie bankowej. I właśnie od tych kilkudziesięciu lat zajmuję się zarządzaniem infrastrukturą IT i cyberbezpieczeństwem, ze specjalizacją właśnie w cyberbezpieczeństwie od kilkunastu lat.

Oprócz tego także pracuję na uczelniach, na jednej uczelni polskiej i na dwóch uczelniach amerykańskich, gdzie wykładam przedmioty związane z cyberbezpieczeństwem. A tak hobbystycznie zaj...

Rozwiń aby zobaczyć pełną rozmowę

© 2026 Bliskie Spotkania z AI