Od ponad 20 lat tworzymy specjalistyczne zespoły przygotowane do obsługi prawnej najbardziej wymagających projektów biznesowychna rynku polskim
i międzynarodowym.
Newsroom
Blog
Normalizacja jakości i bezpieczeństwa systemów sztucznej inteligencji
Aktualny stan w zakresie wytycznych do oceny jakości i bezpieczeństwa systemów sztucznej inteligencji (AI) staje się coraz częściej istotną barierą dla ich rozwoju i zastosowań, w szczególności w obszarach krytycznych dla bezpieczeństwa i ochrony, w takich dziedzinach jak energetyka jądrowa, medycyna czy pojazdy autonomiczne. Wynika to z faktu, że metod i kryteriów stosowanych do tradycyjnych systemów informatycznych nie można zastosować do oceny bezpieczeństwa, stabilności i niezawodności systemów sztucznej inteligencji wykorzystujących technologie maszynowego uczenia i sieci neuronowych. Niniejszy artykuł jest streszczeniem opublikowanego przez BSI (niemiecki Federalny Urząd Bezpieczeństwa Teleinformatycznego) opracowania zatytułowanego „Towards Auditable AI Systems. Current status and future directions”.