Épisodes

  • MAURIX CyberLab FLASH NEWS
    Oct 19 2025
    • MAURIX CyberLab FLASH NEWS: Il +47% degli Attacchi è AI-Driven. La TUA Difesa è Obsoleta?

    • CYBER ALARM: Il Vantaggio AI del Crimine – Il Rapporto Shock di Ottobre 2025.



    Afficher plus Afficher moins
    5 min
  • SAFETY NET (Privacy sui Social Media)
    Oct 18 2025

    Consigli per aumentare la privacy sui social media e limitare la condivisione eccessiva.


    Afficher plus Afficher moins
    12 min
  • Zero Trust: La Nuova Sicurezza Aziendale
    Oct 17 2025

    Nel mondo della cybersicurezza non c’è più spazio per la fiducia cieca.
    Il modello Zero Trust – “fiducia zero” – è la nuova filosofia che sta rivoluzionando la difesa digitale delle aziende, grandi e piccole.
    In questo episodio scopriamo perché non bisogna fidarsi di nessuno: né di utenti, né di dispositivi, né di reti, finché non vengono verificati in modo continuo e rigoroso.

    Con l’aumento del lavoro ibrido e la spinta della Direttiva Europea NIS2, la sicurezza “perimetro contro esterno” non basta più: servono controlli costanti, segmentazione della rete e accessi limitati solo a chi davvero ne ha bisogno.

    💡 Tre pilastri chiave del modello Zero Trust:
    1️⃣ Verifica Continua (con MFA e autenticazioni dinamiche)
    2️⃣ Micro-Segmentazione della rete
    3️⃣ Principio del Minimo Privilegio

    Un nuovo modo di pensare la sicurezza informatica: non più “difendersi dal mondo”, ma verificare ogni connessione per proteggere ciò che conta davvero.

    🎧 A cura di Maurizio Discenza – Formatore, divulgatore e consulente in AI & Cybersecurity.

    Afficher plus Afficher moins
    12 min
  • Intelligenza Artificiale e Sovranità Umana: Analisi della Legge 132/2025, il Futuro Digitale Regolato in Italia.
    Oct 16 2025

    L'Italia, con la Legge 23 settembre 2025, n. 132, ha definito un quadro normativo per la regolazione dell'Intelligenza Artificiale (IA), promuovendo un utilizzo antropocentrico, corretto, trasparente e responsabile dei sistemi e dei modelli di IA. La legge, le cui disposizioni si applicano conformemente al Regolamento (UE) 2024/1689, mira a cogliere le opportunità dell'IA garantendo al contempo la vigilanza sui rischi economici, sociali e sull'impatto sui diritti fondamentali.Principi Etici e Requisiti OperativiLa ricerca e l'utilizzo dell'IA devono avvenire nel pieno rispetto dei diritti fondamentali e delle libertà costituzionali, osservando i princìpi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.È imposto che i sistemi e i modelli di IA siano sviluppati e applicati nel rispetto dell’autonomia e del potere decisionale dell’uomo, assicurando sempre la sorveglianza e l’intervento umano. La qualità dei dati è cruciale: i processi di sviluppo devono garantire la correttezza, l’attendibilità, la sicurezza, la qualità, l’appropriatezza e la trasparenza dei dati utilizzati.Come precondizione essenziale, deve essere garantita la cybersicurezza lungo tutto il ciclo di vita dei sistemi e dei modelli di IA per finalità generali, secondo un approccio basato sul rischio.IA e LavoroNel contesto lavorativo (Art. 11), l’IA deve essere impiegata per migliorare le condizioni di lavoro e accrescere la produttività, risultando sicura, affidabile, trasparente e non in contrasto con la dignità umana né in violazione della riservatezza dei dati personali.Specificamente, il datore di lavoro o il committente ha l’obbligo di informare il lavoratore dell’utilizzo dell’IA, seguendo i casi e le modalità stabilite dall’articolo 1-bis del decreto legislativo 26 maggio 1997, n. 152. L’utilizzo dell’IA deve inoltre garantire l’osservanza dei diritti inviolabili del lavoratore senza discriminazioni in funzione di sesso, età, origine etnica o altre condizioni.Ambiti Settoriali e Autorevolezza UmanaIn diversi settori, la legge stabilisce che l'IA deve rivestire un ruolo di mero supporto:1. Sanità e Disabilità: L’IA è un supporto per la prevenzione, la diagnosi e la cura, ma la decisione sulla diagnosi, la cura e la scelta terapeutica è sempre rimessa agli esercenti la professione medica. L’accesso alle prestazioni sanitarie non può essere condizionato da criteri discriminatori. La legge promuove attivamente sistemi di IA che migliorino le condizioni di vita delle persone con disabilità.2. Giustizia e P.A.: Nelle pubbliche amministrazioni e nell’attività giudiziaria, l’IA ha funzione strumentale e di supporto. Nell’attività giudiziaria, ogni decisione sull’interpretazione e sull’applicazione della legge è sempre riservata al magistrato.Tutela Legale e Diritto d'Autore• Diritto d'Autore: La protezione è riservata alle opere dell’ingegno umano di carattere creativo, anche se create con l’ausilio di sistemi di IA, purché costituiscano il risultato del lavoro intellettuale dell’autore. Sono consentite le riproduzioni ed estrazioni di testo e dati (text and data mining) tramite modelli IA, in conformità con specifici articoli di legge (Articoli 70-ter e 70-quater).• Disposizioni Penali: L’impiego di sistemi di IA può costituire una circostanza aggravante comune se agisce da mezzo insidioso o ostacola la difesa pubblica o privata. Viene introdotto un nuovo reato: l’illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale (Art. 612-quater c.p.), punito con la reclusione da uno a cinque anni, qualora cagioni un danno ingiusto e sia idoneo a ingannare sulla genuinità del contenuto. Inoltre, il reato di aggiotaggio, se commesso mediante IA, comporta una pena maggiore.

    Afficher plus Afficher moins
    19 min