Bumble ha reso open source il suo strumento di intelligenza artificiale per catturare nudi indesiderati

Dal 2019, Bumble ha utilizzato l’apprendimento automatico per proteggere i suoi utenti da foto oscene. Soprannominata , la funzione esamina le immagini inviate dalle partite per determinare se descrivono contenuti inappropriati. È stato progettato principalmente per catturare foto di nudo non richieste, ma può anche segnalare selfie a torso nudo e immagini di pistole, entrambi non consentiti su Bumble. Quando c’è una corrispondenza positiva, l’app sfoca l’immagine incriminata, permettendoti di decidere se vuoi visualizzarla, bloccarla o segnalare la persona che te l’ha inviata.

In un Bumble ha annunciato che si trattava di Private Detector open-source, rendendo il framework disponibile su . “La nostra speranza è che la funzionalità venga adottata dalla più ampia comunità tecnologica mentre lavoriamo in tandem per rendere Internet un posto più sicuro”, ha affermato la società, riconoscendo nel processo che è solo uno dei tanti attori nel mercato degli appuntamenti online.

Le avances sessuali indesiderate sono una realtà frequente per molte donne sia online che nel mondo reale. UN ha scoperto che il 57% delle donne si sentiva molestato dalle app di appuntamenti che usavano. Più recentemente, a dal Regno Unito ha rilevato che il 76% delle ragazze di età compresa tra 12 e 18 anni ha ricevuto immagini di nudo non richieste. Il problema si estende anche oltre le app di appuntamenti, con app come soluzioni proprie.

Tutti i prodotti consigliati da Engadget sono selezionati dalla nostra redazione, indipendente dalla nostra casa madre. Alcune delle nostre storie includono link di affiliazione. Se acquisti qualcosa tramite uno di questi link, potremmo guadagnare una commissione di affiliazione. Tutti i prezzi sono corretti al momento della pubblicazione.

Leave a Comment