I social network sono territorio ad uso e consumo soprattutto di giovani e giovanissimi e, proprio per l'età dell'utenza, è importante muoversi con prudenza e agire in un modo che sia il più possibile cautelativo. Un approccio che vale per tutte le piattaforme di questo tipo, da Facebook a Tik Tok, senza dimenticare Instagram, un universo che, nonostante non sia poi così neonato e non possa, dunque, puntare sull'effetto novità, continua a collezionare estimatori.
Instagram, infatti, è risultata la seconda app più scaricata nel 2023 con oltre 2 miliardi di utenti in tutto il mondo. Complice di questo successo è la sua vasta gamma di funzionalità, tra cui storie, filtri e la possibilità, addirittuta di interagire con influencer e celebrità e personalità del mondo dello spettacolo. Un utilizzo così massivo può comportare una serie di problemi di sicurezza per i giovani utenti e obbliga anche a una contestuale azione di salvaguardia diretta degli sviluppatori dell'app.
Per questo gli addetti ai lavori di Meta sono costantemente impegnati nell'introdurre nuove funzioni, nello sperimentare meccanismi e blocchi fondamentali per non far correre rischi alla loro giovane platea che naviga, condivide e trascorre il suo tempo sui social del colosso di Menlo Park. Ed è proprio in questa direzione che si muove l'ultima novità introdotta in tema di sicurezza atta a limitare, fino ad eliminare, il pericolo di sextortion, sarebbe a dire, abusi e di molestie sessuali attraverso il social. Vediamo come funziona.
La nuova misura di sicurezza, che è ancora in fase beta e non sappiamo con esattezza quando verrà rilasciata al grande pubblico, sarà introdotta all'interno dei messaggi privati inviati e ricevuti su Instagram e riguarderà la condivisione di immagini, contenuti sensibili che molto facilmente possono finire nelle mani di sbagliate e usate per scopi illeciti. Attraverso il nuovo strumento di protezione tutte le foto inviate attraverso messaggi privati saranno analizzate per individuare l'eventuale presenza di foto di nudo. Se questo tipo di immagine dovesse essere rilevata, la funzione si attiverà in automatico sfocandola. Un modo per allontanare individui mossi da cattive intenzioni e, al contempo, proteggere le persone da immagini che potrebbero urtare la loro sensibilità.
Non solo, ogni volta s'invieranno foto di nudo, Instragram invierà un messaggio per invitare alla cautela e per informare sui possibili rischi che si corrono nell'utilizzare questa pratica. Dall'altra parte, chi riceve l’immagine di nudo potrà visualizzare un messaggio rassicurante, corredato di pulsante per bloccare il mittente e segnalare la chat sospetta.
Una caratteristica fondamentale della nuova funzione è, soprattutto, l'impossbilità di disattivarla per tutti gi utenti di Instagram minorenni, mentre gli adutli potranno decidere se attivarla o meno, seppur l'app li solleciterà con continue notifiche per incentivarli all'uso. Uno strumento pensato, sì, per gli utilizzatori più giovani e più vulnerabili della piattaforma, ma che rivela la sua utilità per tutti, a prescindere dall'età anagrafica.
La soluzione su cui si stanno concentrando gli sforzi degli sviluppatori di Meta è il frutto di uno studio condotto di concerto con il National Center for Missing and ExploitedChildren (NCMEC) per fare luce, insieme a un team di esperti, sulle modalità di estorsione messe in atto da questo tipo di criminali e come queste azioni illecite, di fatto, si concretizzano tramite l'uso di piattaforme come, appunto, Instagram.
Dalla collaborazione tra Meta e il NCMEC è nato Take It Down una piattaforma pensata per aiutare giovani e giovanissimi a riprendere il controllo delle loro foto private e evitare che finiscano nelle mani di malintenzionati. Non solo, il Take It Down, fornirà anche una serie di altre risorse per rendere più consapevoli i giovani sull'uso dei social network. Prudenza e conoscenza non sono mai abbastanza.
La Redazione