Trace Id is missing
Passa a contenuti principali
Intelligenza artificiale di Microsoft

Intelligenza artificiale responsabile presso Microsoft

Esplora gli strumenti, le procedure e i criteri creati per rispettare i principi di intelligenza artificiale responsabili.
Un uomo che indossa un paio di occhiali e guarda allo schermo di un computer.
Intelligenza artificiale responsabile presso Microsoft

Impegno per creare un'intelligenza artificiale responsabile

Microsoft si impegna a progettare, creare e rilasciare in modo responsabile tecnologie di intelligenza artificiale, mantenendo gli esseri umani al centro e facendosi guidare sempre dai propri principi. L'impegno di Microsoft si riduce a sei valori di base che rimangono sempre alla base di tutto:

Costruisci il tuo business con un'intelligenza artificiale affidabile

Scopri in che modo le procedure aziendali sicure e protette dell'intelligenza artificiale possono migliorare le prestazioni e generare un impatto efficace.

Strumenti e procedure

Trova le risorse che ti aiutano a valutare, comprendere e prendere decisioni più consapevoli sullo sviluppo e sull'uso dell'intelligenza artificiale.
Un uomo seduto a un tavolo che usa una stilo.
Cartella di lavoro

Cartella di lavoro su Human-AI Experience (HAX)

Aiuta la tua organizzazione a definire e implementare le procedure consigliate per l'interazione tra esseri umani e intelligenza artificiale.
Una donna che guarda lo schermo di un computer.
Blog

Crea app sicure e affidabili con Azure AI

Stiamo introducendo nuove funzionalità di prodotto per rafforzare la sicurezza, la sicurezza e la privacy dei sistemi di intelligenza artificiale.
un portatile con uno schermo su un tavolo
Toolkit

Dashboard di intelligenza artificiale responsabile

Accedi a una suite di strumenti che ti aiutano a creare un'esperienza di intelligenza artificiale personalizzata e responsabile end-to-end.
Criteri

Miglioramento dei criteri dell'IA

Scopri le ultime prospettive sui criteri dell'IA degli esperti Microsoft.

Rendere possibile l'intelligenza artificiale responsabile

Scopri in che modo Microsoft favorisce la collaborazione e aiuta tutti a usare l'intelligenza artificiale in modo responsabile.

Domande frequenti

  • L'intelligenza artificiale responsabile è una serie di passaggi che vengono eseguiti per garantire che i sistemi di intelligenza artificiale siano affidabili e rispettino i principi fondamentali. Si tratta di affrontare problemi come l'equità, l'affidabilità e la sicurezza, la privacy, l'inclusività, la trasparenza e la responsabilità. E pensare in modo approfondito ai modi in cui progettiamo, progettiamo e gestiamo sistemi di intelligenza artificiale.
  • Microsoft garantisce l'equità nei propri sistemi di intelligenza artificiale tramite un approccio completo che include principi, procedure e strumenti progettati per mitigare la distorsione e promuovere l'inclusione.

    I principi di intelligenza artificiale responsabili di Microsoft includono equità, affidabilità e sicurezza, privacy, inclusività, trasparenza e responsabilità. Questi principi guidano lo sviluppo e la distribuzione di sistemi di intelligenza artificiale per garantire che trattino tutti allo stesso modo e impediscano la discriminazione basata sulle caratteristiche personali. Microsoft sottolinea anche l'importanza di convalidare i modelli di intelligenza artificiale in modo responsabile per migliorare l'equità e l'allineamento con la realtà.
  • Quando si usano strumenti generativi di intelligenza artificiale, le considerazioni etiche includono l'affrontare la distorsione e l'equità, garantire la privacy e la sicurezza, mantenere trasparenza e responsabilità, promuovere l'inclusività e garantire affidabilità e sicurezza. È anche importante garantire accuratezza e correttezza, mantenere la supervisione umana, sviluppare framework decisionali etici, rispettare i requisiti legali e normativi ed evitare distorsioni dannose. Questi passaggi consentono di garantire un uso responsabile ed corretto delle tecnologie di intelligenza artificiale.
  • Per introdurre l'intelligenza artificiale in modo responsabile, le organizzazioni devono sviluppare uno standard di intelligenza artificiale responsabile, come quello di Microsoft, che copre principi quali equità, affidabilità, privacy e inclusività.

    Ecco altri passaggi che le organizzazioni possono eseguire per garantire un uso responsabile dell'intelligenza artificiale:
    • Stabilire un Office of Responsible AI per supervisionare l'etico e la governance.
    • Implementare strumenti di governance dell'intelligenza artificiale come Dashboard per l'intelligenza artificiale responsabile di Microsoft per monitorare e gestire i sistemi di intelligenza artificiale.
    • Coinvolgere gli stakeholder dell'organizzazione e fornire formazione sui principi e sulle procedure di intelligenza artificiale responsabili.
  • Microsoft Copilot memorizza i dettagli importanti per la tua vita quotidiana, mantenendo al tempo stesso i dati personali al sicuro e proteggendo la tua privacy. È sempre possibile gestire le preferenze di privacy nelle impostazioni di Privacy di Copilot.

    Quando si usano i Copilot a lavoro, tutti i requisiti di sicurezza e conformità esistenti vengono ereditati, in modo che solo gli utenti con le autorizzazioni appropriate possano accedere al contenuto generato.

    Come azienda, Microsoft si impegna a fornire intelligenza artificiale affidabile, con decenni di ricerche, feedback dei clienti e apprendimento su cui si basano le funzionalità che offrono privacy, sicurezza e sicurezza.

Scopri di più sull'intelligenza artificiale in Microsoft

Segui Microsoft