Bezpieczna generatywna sztuczna inteligencja
W ramach KSC Forum przeanalizowaliśmy jak bezpiecznie korzystać z GenAI i zminimalizować potencjalne ryzyka związane z jej używaniem. Odpowiedzieliśmy także na pytanie czy wykorzystywanie dużych modeli językowych (LLM) w aplikacjach firmowych jest w pełni bezpieczne.
Agenda
- Wyzwania związane z zabezpieczeniem GenAI
- Modele bezpieczeństwa GenAI
- Mechanizmy bezpieczeństwa w Amazon Bedrock
Dowiesz się…
- jak bezpiecznie korzystać z GenAI;
- jak zapewnić bezpieczeństwo bez spowalniania innowacji;
- w jaki sposób prawidłowo zarządzać ryzykiem;
- w jaki sposób zapewnić ciągłość działania organizacji — zgodnie z wymogami ustawy o KSC.
Prowadzący

Michał Siemieniuk
Head of Security, Chaos GearsKonsultant ds. bezpieczeństwa IT z 20-letnią praktyką na różnych stanowiskach — po stronie klienta, dostawcy i integratora.
Na co dzień projektuje i wdraża rozwiązania z obszaru bezpieczeństwa, ze szczególnym uwzględnieniem ich wpływu na biznes. Michał w swojej pracy wykorzystuje technologie komercyjne i open source.

Piotr Boetzel
Solutions Architect, AWSOd 15 lat pracuje w branży IT jako administrator, konsultant, trener, inżynier sprzedaży, architekt.
Przez większość kariery zajmował się rozwiązaniami do zapewnienia ciągłości działania, a następnie cyberbezpieczeństwem, w zakresie którego wyróżnia go certyfikacja CISSP.
Informacje organizacyjne
- Konferencja odbyła się w hotelu Crystal Mountain w Wiśle (Bukowa 19A).
- Udział w konferencji był płatny i wymagana była rejestracja.
- Tematyka konferencji była skoncentrowana na cyberbezpieczeństwie i realizacji wymogów ustawy o krajowym systemie cyberbezpieczeństwa. Tegoroczna edycja była poświęcona przede wszystkim projektowi nowelizacji ustawy, który implementuje do polskiego porządku prawnego dyrektywę NIS 2.
- Podczas konferencji nie zabrakło również sesji typu “case study” i praktycznych warsztatów.
- Masz pytania? Napisz do nas.