Przewodnik podkreśla rolę silnych, unikalnych haseł oraz dwustopniowego uwierzytelniania na każdym używanym koncie – zarówno służbowym, jak i prywatnym. Zaleca wdrożenie regularnych kopii zapasowych i oddzielenie strefy zawodowej od prywatnej na urządzeniach i w środowisku pracy. Obok automatycznych backupów poleca testowanie procedur odtwarzania danych po potencjalnym cyberataku.
NASK promuje narzędzia i strategie pozwalające zweryfikować źródła, monitorować serwisy fact-checkerskie, korzystać z automatycznych analizatorów treści AI i uczyć rozpoznawania manipulacji w mediach społecznościowych. Szczegółowe infografiki i przykłady przypadków z sieci pokazują, jak rozpoznawać fałszywe reklamy i masowe kampanie dezinformacyjne.
Przewodnik omawia zasady bezpiecznego korzystania z poczty elektronicznej, komunikatorów oraz dokumentów online. Uczy, jak rozpoznać phishing, ransomware czy socjotechniczne ataki na konta redakcyjne. Zawiera checklistę działań zapobiegawczych dla zespołów: szkolenia, mock-attacki, wdrożenie polityki „zero zaufania”.
Poradnik tłumaczy, czym są LLM (wielkie modele językowe), jak implementować je do researchu dziennikarskiego, generowania tekstów, analizy big data. Pokazuje ryzyka korzystania z chatbotów i generujących grafikę czy głos AI: problem praw autorskich, nieprzewidywalne efekty kreatywne i zagrożenia dla wiarygodności przekazu.
NASK opisuje wzorce postępowania: od wykrycia incydentu, szybkiego powiadomienia zespołu po kontakt z CERT i komunikację kryzysową. Przewodnik analizuje głośny case ataku na PAP, podaje listę narzędzi do szybkiej analizy i neutralizacji zagrożenia w treściach publikowanych przez redakcję.
Zestawienie najważniejszych obowiązujących i nadchodzących przepisów: prawa autorskie w epoce generatywnej AI, rozporządzenia unijne, zapisy Aktu o AI oraz ryzyko związane z automatyczną moderacją treści. Przewodnik rekomenduje konsultowanie innowacji i publikacji AI z prawnikami, podaje praktyczne linki do oficjalnych źródeł.
Visual guide do rozpoznawania sztucznie generowanych obrazów, nagrań i tekstów. NASK przedstawia narzędzia do wykrywania deepfake’ów, fałszywych audio oraz typowych algorytmów generujących materiały służące do cyberoszustw i ataków na reputację.
Przewodnik jest zbiorem uniwersalnych list kontrolnych, infografik i przykładowych procedur bezpieczeństwa – od izolowania sprzętu, przez rutynowe testy, po system zgłaszania incydentów w redakcji. Są tu wskazówki dla jednoosobowych zespołów i dużych grup twórczych.
Możliwość natychmiastowego wdrożenia prostych zmian poprawiających bezpieczeństwo.
Dostęp do schematów reagowania na cyberataki (również w weekendy i poza godzinami pracy).
Wskazówki do rekrutacji i szkoleń zespołu w zakresie cyberhigieny i pracy z AI.
Zrozumienie najnowszych trendów – od fake news przez generatywne treści audio-wizualne.
Baza narzędzi do codziennej analizy materiałów, weryfikacji źródeł oraz komunikacji z odbiorcami.
Przewodnik NASK stanowi solidny punkt wyjścia do budowy odpornej, świadomej redakcji lub własnej marki cyfrowej w świecie AI i ciągle rosnących zagrożeń cybernetycznych.
Przewodnik NASK daje solidny start, ale w codzienności twórcy i redakcji napotykają problemy, których raport nie opisuje wystarczajaco szeroko – a są udokumentowane przez polskie i światowe statystyki:
Błyskawiczna obrona reputacji online: Raport nie podaje skutecznych procedur, kiedy AI generuje masowe ataki na profile, zalewa trollami lub manipuluje opinią publiczną. 66% organizacji w Europie wskazuje taki typ ataków jako najpoważniejsze ryzyko.
Prywatność twórcy: Nie ma porad, jak chronić swoje dane osobowe, lokalizację albo najbliższych przed wyciekiem czy monitoringiem przez AI. Ponad 80% dziennikarzy i redakcji doświadczyło naruszenia prywatności wg raportów KPMG i EY.
Transparentność pracy z AI: W dużych mediach światowych (BBC, Reuters) wdrożono formalne zasady komunikowania odbiorcom, że treści stworzył algorytm, nie człowiek. W polskich – takich praktycznych narzędzi wciąż brakuje.
Realne ryzyko prawne: Polskie i europejskie firmy chcą AI, lecz nie są przygotowane na skutki prawne publikacji „automatycznych” treści. Raport pomija przykłady międzynarodowych sporów, blokowania profili bez wyjaśnienia czy ochrony przed automatyczną moderacją.
Aktualne statystyki zagrożeń: Polska jest jednym z pięciu krajów UE najbardziej narażonych na ataki cybernetyczne –co znacząco zwiększa takżę skalę zagrożeń dotyczących sektora medialnego.
Wzmocnij komunikację z odbiorcami o użyciu AI, zainwestuj w monitorowanie reputacji (np. polskie rozwiązania Brand24.pl), testuj z zespołem odporność na dezinformację, oddziel sferę prywatną od zawodowej i szykuj realne scenariusze kryzysowe na „czarną godzinę”. W 2025 transparentność oznaczania treści AI to nie wybór, lecz standard komunikacji. Meta, YouTube, TikTok oraz unijne akty prawne wymagają widocznego, zrozumiałego oznaczenia wszelkich tekstów „syntetycznych” – dotyczy to blogów, postów, artykułów i grafik.
Oznaczenie AI dla artykułu redakcyjnego powinno być jednoznaczne, zwięzłe i widoczne dla odbiorcy. Oto zalecany schemat zgodny ze standardami branżowymi i wytycznymi prawno-etycznymi:
Przykładowe krótkie oznaczenie pod artykułem redakcyjnym:
„Artykuł powstał we współpracy z narzędziem AI i został zredagowany przez zespół redakcyjny.”
„Treść została częściowo wygenerowana przez sztuczną inteligencję i zweryfikowana przez autorów.”
„Materiał wygenerowany z udziałem AI. Końcowa wersja opracowana przez redakcję.”
„Niniejsza publikacja korzysta z fragmentów opracowanych przez AI pod nadzorem redakcji.”
"Przewodnik po cyberbezpieczeństwie i sztucznej inteligencji dla mediów i twórców cyfrowych" dostępny jest w wersji PDF na stronie NASK - tutaj pdajemy bezpośredni link: https://www.nask.pl/media/2025/10/Handbook-Przewodnik-Cyberbezpieczenstwo-i-AI-dla-Mediow-i-Tworcow.pdf
© 2025 Fundacja Łowickie Forum Bezpiecznego Internetu