sylwetka mężczyzny trzymającego latarkę
03 listopada 2025

Nowy przewodnik NASK: Cyberbezpieczeństwo i AI dla mediów oraz twórców cyfrowych.

Oublikowany właśnie przewodnik Państwowego Instytutu Badawczego NASK to kompleksowy zestaw wskazówek, ćwiczeń i praktycznych rozwiązań dla dziennikarzy, redakcji, influencerów i wszystkich, którzy profesjonalnie publikują treści w internecie lub korzystają z narzędzi sztucznej inteligencji.​

 

I. Kluczowe zagadnienia przewodnika NASK

 

1. Fundamenty cyberhigieny w pracy mediów

Przewodnik podkreśla rolę silnych, unikalnych haseł oraz dwustopniowego uwierzytelniania na każdym używanym koncie – zarówno służbowym, jak i prywatnym. Zaleca wdrożenie regularnych kopii zapasowych i oddzielenie strefy zawodowej od prywatnej na urządzeniach i w środowisku pracy. Obok automatycznych backupów poleca testowanie procedur odtwarzania danych po potencjalnym cyberataku.​

2. Systemowe podejście do identyfikacji dezinformacji

NASK promuje narzędzia i strategie pozwalające zweryfikować źródła, monitorować serwisy fact-checkerskie, korzystać z automatycznych analizatorów treści AI i uczyć rozpoznawania manipulacji w mediach społecznościowych. Szczegółowe infografiki i przykłady przypadków z sieci pokazują, jak rozpoznawać fałszywe reklamy i masowe kampanie dezinformacyjne.​

3. Bezpieczeństwo komunikacji w redakcji i z odbiorcami

Przewodnik omawia zasady bezpiecznego korzystania z poczty elektronicznej, komunikatorów oraz dokumentów online. Uczy, jak rozpoznać phishing, ransomware czy socjotechniczne ataki na konta redakcyjne. Zawiera checklistę działań zapobiegawczych dla zespołów: szkolenia, mock-attacki, wdrożenie polityki „zero zaufania”.​

4. Praca z AI w mediach – szanse i pułapki

Poradnik tłumaczy, czym są LLM (wielkie modele językowe), jak implementować je do researchu dziennikarskiego, generowania tekstów, analizy big data. Pokazuje ryzyka korzystania z chatbotów i generujących grafikę czy głos AI: problem praw autorskich, nieprzewidywalne efekty kreatywne i zagrożenia dla wiarygodności przekazu.​

5. Procedury w razie cyberataku – model działania „ready to use”

NASK opisuje wzorce postępowania: od wykrycia incydentu, szybkiego powiadomienia zespołu po kontakt z CERT i komunikację kryzysową. Przewodnik analizuje głośny case ataku na PAP, podaje listę narzędzi do szybkiej analizy i neutralizacji zagrożenia w treściach publikowanych przez redakcję.​

6. Prawo, normy i regulacje AI – praktyczne ABC

Zestawienie najważniejszych obowiązujących i nadchodzących przepisów: prawa autorskie w epoce generatywnej AI, rozporządzenia unijne, zapisy Aktu o AI oraz ryzyko związane z automatyczną moderacją treści. Przewodnik rekomenduje konsultowanie innowacji i publikacji AI z prawnikami, podaje praktyczne linki do oficjalnych źródeł.​

7. Analiza i detekcja deepfake’ów oraz manipulacji multimediów

Visual guide do rozpoznawania sztucznie generowanych obrazów, nagrań i tekstów. NASK przedstawia narzędzia do wykrywania deepfake’ów, fałszywych audio oraz typowych algorytmów generujących materiały służące do cyberoszustw i ataków na reputację.​

8. Checklisty i gotowe materiały do wdrożenia od ręki

Przewodnik jest zbiorem uniwersalnych list kontrolnych, infografik i przykładowych procedur bezpieczeństwa – od izolowania sprzętu, przez rutynowe testy, po system zgłaszania incydentów w redakcji. Są tu wskazówki dla jednoosobowych zespołów i dużych grup twórczych.​

Podsumowanie: praktyczne korzyści dla redakcji i twórców

  • Możliwość natychmiastowego wdrożenia prostych zmian poprawiających bezpieczeństwo.

  • Dostęp do schematów reagowania na cyberataki (również w weekendy i poza godzinami pracy).

  • Wskazówki do rekrutacji i szkoleń zespołu w zakresie cyberhigieny i pracy z AI.

  • Zrozumienie najnowszych trendów – od fake news przez generatywne treści audio-wizualne.

  • Baza narzędzi do codziennej analizy materiałów, weryfikacji źródeł oraz komunikacji z odbiorcami.

Przewodnik NASK stanowi solidny punkt wyjścia do budowy odpornej, świadomej redakcji lub własnej marki cyfrowej w świecie AI i ciągle rosnących zagrożeń cybernetycznych.

 

II. Co warto dodać -  praktyczne wyzwania

 

Przewodnik NASK daje solidny start, ale w codzienności twórcy i redakcji napotykają problemy, których raport nie opisuje wystarczajaco szeroko – a są udokumentowane przez polskie i światowe statystyki:

  • Błyskawiczna obrona reputacji online: Raport nie podaje skutecznych procedur, kiedy AI generuje masowe ataki na profile, zalewa trollami lub manipuluje opinią publiczną. 66% organizacji w Europie wskazuje taki typ ataków jako najpoważniejsze ryzyko.​

 

  • Prywatność twórcy: Nie ma porad, jak chronić swoje dane osobowe, lokalizację albo najbliższych przed wyciekiem czy monitoringiem przez AI. Ponad 80% dziennikarzy i redakcji doświadczyło naruszenia prywatności wg raportów KPMG i EY.​

 

  • Transparentność pracy z AI: W dużych mediach światowych (BBC, Reuters) wdrożono formalne zasady komunikowania odbiorcom, że treści stworzył algorytm, nie człowiek. W polskich – takich praktycznych narzędzi wciąż brakuje.

 

  • Realne ryzyko prawne: Polskie i europejskie firmy chcą AI, lecz nie są przygotowane na skutki prawne publikacji „automatycznych” treści. Raport pomija przykłady międzynarodowych sporów, blokowania profili bez wyjaśnienia czy ochrony przed automatyczną moderacją.​

 

  • Aktualne statystyki zagrożeń: Polska jest jednym z pięciu krajów UE najbardziej narażonych na ataki cybernetyczne –co znacząco zwiększa takżę skalę zagrożeń dotyczących sektora medialnego. 

 

Co warto dodać do checklisty?

Wzmocnij komunikację z odbiorcami o użyciu AI, zainwestuj w monitorowanie reputacji (np. polskie rozwiązania Brand24.pl), testuj z zespołem odporność na dezinformację, oddziel sferę prywatną od zawodowej i szykuj realne scenariusze kryzysowe na „czarną godzinę”.​ W 2025 transparentność oznaczania treści AI to nie wybór, lecz standard komunikacji. Meta, YouTube, TikTok oraz unijne akty prawne wymagają widocznego, zrozumiałego oznaczenia wszelkich tekstów „syntetycznych” – dotyczy to blogów, postów, artykułów i grafik.

Jak sformułować krótkie oznaczenie o współpracy z AI?

Oznaczenie AI dla artykułu redakcyjnego powinno być jednoznaczne, zwięzłe i widoczne dla odbiorcy. Oto zalecany schemat zgodny ze standardami branżowymi i wytycznymi prawno-etycznymi:​

Przykładowe krótkie oznaczenie pod artykułem redakcyjnym:

  • „Artykuł powstał we współpracy z narzędziem AI i został zredagowany przez zespół redakcyjny.”

  • „Treść została częściowo wygenerowana przez sztuczną inteligencję i zweryfikowana przez autorów.”

  • „Materiał wygenerowany z udziałem AI. Końcowa wersja opracowana przez redakcję.”

  • „Niniejsza publikacja korzysta z fragmentów opracowanych przez AI pod nadzorem redakcji.”

 

Jak pobrać przewodnik?

"Przewodnik po cyberbezpieczeństwie i sztucznej inteligencji dla mediów i twórców cyfrowych" dostępny jest w wersji PDF na stronie NASK - tutaj pdajemy bezpośredni link: https://www.nask.pl/media/2025/10/Handbook-Przewodnik-Cyberbezpieczenstwo-i-AI-dla-Mediow-i-Tworcow.pdf 

 

Adnotacja:

>>Treść tego artykułu powstała we współpracy z narzędziem AI; proces edycji i fakt-checkingu przeprowadziła redakcja ŁowickieFBI<<

 

 

Fundacja Łowickie Forum Bezpiecznego Internetu

KRS: 0001201127

 © 2025 Fundacja Łowickie Forum Bezpiecznego Internetu