Trasforma l'IA responsabile dalla teoria alla pratica

Promuovere lo sviluppo sicuro e responsabile dell'IA come forza positiva

Sviluppo dell'intelligenza artificiale in modo responsabile in AWS

La rapida crescita dell'IA generativa porta nuove innovazioni promettenti e allo stesso tempo pone nuove sfide. In AWS ci impegniamo a sviluppare l'intelligenza artificiale in modo responsabile, adottando un approccio incentrato sulle persone che dà priorità all'istruzione, alla scienza e ai nostri clienti, per integrare l'IA responsabile in tutto il ciclo di vita dell'IA end-to-end.

Immagine con forme colorate

Dimensioni fondamentali dell'IA responsabile

Equità

Valutare gli impatti sui diversi gruppi di stakeholder

Spiegabilità

Comprendere e valutare i risultati del sistema

Privacy e sicurezza

Ottenere, utilizzare e proteggere dati e modelli in modo adeguato

Sicurezza

Prevenire l'output dannoso e l'uso improprio del sistema

Controllabilità

Disporre di meccanismi per monitorare e guidare il comportamento del sistema di IA

Veridicità e robustezza

Ottenere output di sistema corretti, anche con input imprevisti o contraddittori

Governance

Incorporare le best practice nella catena di approvvigionamento dell'IA, inclusi fornitori e implementatori

Trasparenza

Consentire agli stakeholder di fare scelte informate sul loro coinvolgimento con un sistema di IA

Dimensioni fondamentali dell'IA responsabile

Equità

Valutare gli impatti sui diversi gruppi di stakeholder

Spiegabilità

Comprendere e valutare i risultati del sistema

Privacy e sicurezza

Ottenere, utilizzare e proteggere dati e modelli in modo adeguato

Sicurezza

Prevenire l'output dannoso e l'uso improprio del sistema

Controllabilità

Disporre di meccanismi per monitorare e guidare il comportamento del sistema di IA

Veridicità e robustezza

Ottenere output di sistema corretti, anche con input imprevisti o contraddittori

Governance

Incorporare le best practice nella catena di approvvigionamento dell'IA, inclusi fornitori e implementatori

Trasparenza

Consentire agli stakeholder di fare scelte informate sul loro coinvolgimento con un sistema di IA

Servizi e strumenti

AWS offre servizi e strumenti per aiutarti a progettare, creare e gestire i sistemi di intelligenza artificiale in modo responsabile.

Implementazione di misure di sicurezza nell'IA generativa

I guardrail per Amazon Bedrock ti aiutano a implementare misure di protezione per le tue applicazioni di IA generativa personalizzate e in linea alle policy di IA responsabile. I guardrail forniscono protezioni aggiuntive personalizzabili in aggiunta alle protezioni native dei modelli di fondazione (FM), offrendo protezioni di sicurezza tra le migliori del settore poiché:

  • Blocca fino all'85% in più di contenuti dannosi
  • Filtra oltre il 75% delle risposte caratterizzate da allucinazione dell'IA per i carichi di lavoro RAG e di sintesi
  • Consente ai clienti di personalizzare e applicare le protezioni di sicurezza, privacy e veridicità in un'unica soluzione
Sfumature delle linee di flusso

Valutazioni dei modelli di fondazione (FM)

La valutazione dei modelli su Amazon Bedrock ti aiuta a valutare, confrontare e selezionare i migliori FM per il tuo caso d'uso specifico in base a parametri personalizzati, come precisione, robustezza e tossicità. Puoi anche utilizzare Amazon SageMaker Clarify e fmeval per la valutazione dei modelli.

Diverse forme colorate su uno sfondo blu

Rilevare i bias e spiegare le previsioni

I bias sono distorsioni nei dati o disparità nelle prestazioni di un modello tra gruppi diversi. Amazon SageMaker Clarify consente di limitare i bias rilevandone l'eventuale presenza durante la preparazione dei dati, dopo l'addestramento dei modelli e nel modello implementato, attraverso l'analisi di attributi specifici.

Conoscere il comportamento di un modello è importante per sviluppare modelli più accurati e prendere decisioni migliori. Amazon SageMaker Clarify offre una maggiore visibilità sul comportamento del modello, in modo da garantire trasparenza agli stakeholder, informare le persone che prendono decisioni e verificare se un modello funziona come previsto.

Esplora Amazon SageMaker Clarify

Design a onde blu e verdi

Monitoraggio e revisione umana

Il monitoraggio è importante per mantenere modelli di machine learning (ML) di alta qualità e contribuire a garantire previsioni accurate. Amazon SageMaker Model Monitor rileva e segnala automaticamente le previsioni imprecise dei modelli implementati. E con Amazon SageMaker Ground Truth puoi applicare il feedback umano in tutto il ciclo di vita del machine learning per migliorare l'accuratezza e la pertinenza dei modelli.

Oggetti di diverse dimensioni e forme su un nastro trasportatore

Miglioramento della governance

Governance del ML di Amazon SageMaker fornisce strumenti su misura per migliorare la governance dei tuoi progetti ML offrendoti un controllo e una visibilità più stretti sui tuoi modelli di ML. Puoi acquisire e condividere facilmente le informazioni sul modello e ottenere aggiornamenti sul comportamento del modello, come i bias, in un unico posto.

Schema astratto di punti collegati

Schede di servizio IA di AWS

Le schede di servizio IA sono una risorsa per migliorare la trasparenza fornendo un unico posto dove trovare informazioni sui casi d'uso e le limitazioni previsti, sulle scelte di progettazione dell'IA responsabile e sulle best practice di ottimizzazione delle prestazioni per i nostri servizi e modelli di intelligenza artificiale.

Esplora le schede di servizio disponibili

Ripresa aerea di auto che attraversano un ponte

Contributo e collaborazione della community

Grazie a un profondo coinvolgimento con organizzazioni multi-stakeholder come i gruppi di lavoro dell'OCSE sull'intelligenza artificiale, la Partnership sull'IA, l'Istituto sull'IA responsabile e il Comitato consultivo nazionale sull'IA, nonché alle partnership strategiche con le università su scala globale, ci impegniamo a collaborare con altri per sviluppare la tecnologia IA e ML in modo responsabile e creare fiducia.

Adottiamo un approccio incentrato sulle persone per educare la prossima generazione di leader nel campo dell'intelligenza artificiale con programmi come il programma di borse di studio AI & ML e We Power Tech per aumentare l'accesso all'apprendimento pratico, alle borse di studio e al tutoraggio per i meno abbienti o sottorappresentati nel settore tecnologico.

Il nostro investimento in un'IA generativa sicura, trasparente e responsabile include la collaborazione con la comunità globale e i responsabili politici, tra cui gli impegni volontari della Casa Bianca per l'IA, il vertice sulla sicurezza dell'IA nel Regno Unito e il supporto per ISO 42001, un nuovo standard fondamentale per promuovere l'IA responsabile. Sosteniamo lo sviluppo di quadri normativi efficaci basati sul rischio per l'IA che proteggano i diritti civili, consentendo al contempo l'innovazione continua.

L'IA responsabile è un'area attiva di ricerca e sviluppo in Amazon. Abbiamo collaborazioni strategiche con il mondo accademico, come il California Institute of Technology e con Amazon Scholars, tra cui esperti di spicco che applicano la loro ricerca accademica per contribuire a creare flussi di lavoro di IA responsabile in Amazon.

Innoviamo insieme ai nostri clienti, rimanendo all'avanguardia nelle nuove tendenze e nella ricerca per fornire valore, con sovvenzioni alla ricerca continue tramite gli Amazon Research Awards e pubblicazioni scientifiche con Amazon Science. Scopri di più sulla scienza per sviluppare l'IA generativa in modo responsabile in questo blog di Amazon Science che descrive le principali sfide e soluzioni emergenti.

Risorse di IA responsabile