Azure AI Content Safety, il tool di Microsoft per rilevare in tempo reale i contenuti online pericolosi

ll nuovo strumento è progettato per aiutare le aziende a sviluppare ambienti online sicuri

L’introduzione di questo tool è un esempio dell'impegno di Microsoft per creare un'AI responsabile

Un nuovo strumento per l’AI responsabile è stato lanciato da MicrosoftAzure AI Content Safety è progettato per aiutare le aziende a sviluppare ambienti online sicuri, ampliando la portata dei propri sforzi in materia di AI e al contempo non mettere a rischio la fiducia dei propri clienti e utenti. Con Azure AI Content Safety, le aziende possono rilevare e filtrare in tempo reale i contenuti online dannosi – hate speech, contenuti violenti per esempio – in base alle proprie esigenze specifiche e policy e indicare rapidamente ai team che si occupano della moderazione di contenuti quali di questi necessitino di attenzione immediata.

Con la crescente diffusione dell’intelligenza artificiale generativa che consente alle persone di creare una maggiore quantità di contenuti, organizzazioni clienti di Microsoft nel mondo stanno già implementando queste funzionalità per la moderazione delle informazioni in ambiti quali i social media e l’istruzione. L’introduzione di questo tool è un esempio di come gli strumenti per l’AI responsabile di Microsoft stiano abilitando e supportando le organizzazioni nel costruire la prossima generazione di app di AI in modo responsabile.







 














Articolo precedenteSciopero Uaw (Usa): niente Ces 2024 per Stellantis
Articolo successivoPhoenix Contact: il controllore per ricarica in AC Charx control modular ottiene da Vde certificazione di conformità






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui