Wróć do listy odcinków
#4 Jak obchodzić zabezpieczenia #AI i chronić aplikacje z sztuczną inteligencją | Mateusz Chrobok
Rozmowa • Odcinek 4 • 54 min

#4 Jak obchodzić zabezpieczenia #AI i chronić aplikacje z sztuczną inteligencją | Mateusz Chrobok

Opis odcinka

Czy potrafisz przechytrzyć AI? 🤖 Odkryj, jak eksperci obchodzą zabezpieczenia modeli LLM i jak możesz chronić przed tym swoje aplikacje na prodzie! 🚀


W najnowszym odcinku podcastu #BliskieSpotkaniazAI posłuchaj rozmowy z Mateuszem Chrobokiem, ekspertem od AI i #cybersecurity. Rozmawiamy o obchodzeniu zabezpieczeń modeli językowych (LLM jailbreaking) – jak działa, co oznacza dla bezpieczeństwa i jak sobie z tym radzić. Zastanawiasz się, jak chronić swoje systemy, gdy AI wchodzi do gry? Odkryj skuteczne strategie i przygotuj się na przyszłość!


🎧 Słuchaj na Spotify:

https://open.spotify.com/episode/101P6G0fMJjfNFrXDxKrOX?si=taRIHiSQTNGY8OsOGnscww


⭐️ Zobacz też:

- #5 Jakub Mrugalski - zautomatyzuj zadania, zyskaj czas na kreatywność https://www.youtube.com/watch?v=gEhMWWaXfkQ

- #1 Grigorij Dudnik | Agenty AI - Klucz do automatyzacji programowania https://www.youtube.com/watch?v=tOPKf9XiVXo

- #3 Adam G. Dobrakowski | Data Science - uzyskaj przewagę w biznesie dzięki danym https://www.youtube.com/watch?v=cXd7PqzvxDs

- #2 Rafał Florek | Concierge AI – Czy hotelowi specjaliści stracą pracę? https://www.youtube.com/watch?v=IKzigMVtz8g


Linki do kontaktu z Mateuszem oraz materiały omawiane w odcinku:


🔗 Kontakt:

👉 Strona: https://chrobok.eu/

👉 LinkedIn: https://www.linkedin.com/in/mateuszchrobok/

👉 Instagram: https://instagram.com/mateuszemsi

👉 X: https://x.com/mateuszchrobok

👉 Kanał na YouTube: https://www.youtube.com/@MateuszChrobok

👉 Podcast: https://podcasters.spotify.com/pod/show/mateusz-chrobok

👉 Kurs bezpiecznej komunikacji: https://uczmnie.pl/

👉 Kurs AI_devs - programuj autonomicznych agentów i narzędzia GenAI: https://www.aidevs.pl?ref=r2132


📚 Materiały omawiane w odcinku:

👉 "DAN" and other Jailbreaks: https://gist.github.com/coolaj86/6f4f7b30129b0251f61fa7baaa881516

👉 Automatic Jailbreaking of the Text-to-Image Generative AI Systems: https://arxiv.org/abs/2405.16567

👉 ArtPrompt: ASCII Art-based Jailbreak Attacks against Aligned LLMs: https://arxiv.org/html/2402.11753v2


📖 Polecane książki:

👉 Pułapki myślenia. O myśleniu szybkim i wolnym - Daniel Kahneman: https://lubimyczytac.pl/ksiazka/5103227/pulapki-myslenia-o-mysleniu-szybkim-i-wolnym

👉 Inteligencja emocjonalna - Daniel Goleman: https://lubimyczytac.pl/ksiazka/15115/inteligencja-emocjonalna

👉 Sztuka podstępu. Łamałem ludzi, nie hasła - Kevin Mitnick, William L. Simon: https://lubimyczytac.pl/ksiazka/4302680/sztuka-podstepu-lamalem-ludzi-nie-hasla


👥 Polecane osoby:

👉 Andrej Karpathy - https://x.com/karpathy

👉 Elon Musk - https://x.com/elonmusk

👉 George Hotz, alias geohot


🔗 Linki
Rozdziały:
Dziś w odcinku
Wprowadzenie
Mateusz Chrobok
Jailbreaking AI – zagrożenia i przykłady
Techniki jailbrekowania modeli AI
Rola multimodalności i nowe techniki Jailbreaking
Time to jailbreak
Alignment w modelach AI – czym jest?
Konsekwencje alignmentu i fake alignment
Zabezpieczanie aplikacji przed jailbreakingiem i atakami w środowisku produkcyjnym
Monitoring i narzędzia do ochrony LLM-ów
Przyszłe prognozy jailbreakingu modeli LLM
Inspiracje i wpływ literatury oraz osób na Mateusza
Zakończenie

© 2025 Bliskie Spotkania z AI