AI e Recruiting: Il Caso Workday e la Nuova Urgenza della Governance Algoritmica

L'adozione di sistemi di intelligenza artificiale nei processi di selezione sta rivoluzionando il mondo HR, ma al tempo stesso espone le organizzazioni a rischi regolatori, reputazionali e operativi sempre più concreti.

Un recente precedente giudiziario negli Stati Uniti, Mobley v. Workday, segna uno spartiacque per chiunque utilizzi piattaforme AI per la valutazione automatizzata dei candidati, anche in modalità SaaS.


Il Caso Workday: Implicazioni Giuridiche e Operative

Nel maggio 2025, il tribunale federale californiano ha concesso la preliminary certification a una collective action contro Workday, uno dei principali fornitori globali di soluzioni HR-tech. La causa, intentata da Derek Mobley, ha portato alla certificazione dell'azione collettiva per discriminazione per età nei confronti di candidati over-40, esclusi da processi di selezione gestiti dall'AI Workday dal 2020 ad oggi.

Un punto essenziale: il giudice ha riconosciuto la possibilità di responsabilità diretta anche per fornitori SaaS, non solo per chi gestisce i processi di selezione. Le accuse relative a discriminazione razziale e per disabilità restano aperte, ma al momento non sono ancora state certificate.

Il contenzioso riguarda potenzialmente centinaia di milioni di candidature e ha già suscitato l'attenzione di autorità regolatorie (tra cui la EEOC), operatori di settore e media specializzati.


Rischi per le Organizzazioni

Implicazioni legali:

  • Precedente che estende la responsabilità anche ai vendor SaaS e ai clienti corporate.
  • Esposizione a class action e indagini delle autorità, in caso di assenza di controlli e audit indipendenti.

Implicazioni operative e reputazionali:

  • Possibili interruzioni dei processi HR per audit e verifiche straordinarie.
  • Impatto sulla reputazione aziendale e sul posizionamento employer branding.
  • Maggior scrutinio da parte di investitori, stakeholder e media.

Le Cause: Come il Bias Algoritmico Può Propagarsi

  • Dati storici distorti: l'AI apprende da dataset che spesso riflettono bias pregressi nei processi di assunzione.
  • Assenza di audit indipendenti: molti sistemi vengono validati solo internamente, senza controlli terzi su metriche di fairness e non discriminazione.
  • Gestione inadeguata del data drift: la mancata supervisione dei cambiamenti nei dati può aggravare comportamenti discriminatori nel tempo.

L'AI Act: Nuovi Standard per la Compliance Europea

Il quadro europeo si sta rapidamente allineando:

l'AI Act classifica i sistemi di selezione automatizzata tra quelli ad "alto rischio", introducendo obblighi puntuali e documentabili per tutte le organizzazioni che adottano queste tecnologie:

  • Impact assessment preventivo (AI Impact Assessment) su rischi di bias e discriminazione.
  • Documentazione e tracciabilità dei dati, delle metodologie e dei processi decisionali automatizzati.
  • Supervisione umana significativa e possibilità di contestazione delle decisioni algoritmiche.
  • Obbligo di audit regolari e metriche di fairness aggiornate.

Checklist Essenziale per la Compliance (AI & Recruiting)

  • Il vostro ATS o sistema AI viene sottoposto a controlli indipendenti periodici?
  • I dataset di training sono bilanciati e privi di bias sistemici noti?
  • Le decisioni automatizzate sono pienamente tracciabili e documentate?
  • Esiste un processo strutturato di contestazione per i candidati esclusi?
  • Il fornitore garantisce l'aderenza ai requisiti dell'AI Act e delle normative nazionali?

Raccomandazioni Operative

  • Audit terzi e assessment di impatto come prassi ricorrente e non "una tantum".
  • Formazione e aggiornamento delle funzioni HR, IT e compliance sulle novità normative.
  • Review legale dei contratti con fornitori SaaS e verifica delle clausole di responsabilità.
  • Piani di gestione incidenti per rispondere tempestivamente a segnalazioni di discriminazione o failure algoritmiche.

Conclusioni

Il caso Workday rappresenta un cambio di paradigma nella gestione dei rischi AI applicati al recruiting. In un contesto in cui la normativa evolve rapidamente e i rischi sono sempre più diffusi anche a livello reputazionale, la governance algoritmica deve essere solida, proattiva e orientata alla trasparenza.

Affrontare il tema oggi significa tutelare l'organizzazione da rischi legali, garantire la conformità alle nuove normative europee e rafforzare la fiducia di candidati, investitori e stakeholder.

Per valutare la compliance dei vostri sistemi AI nei processi di selezione, i consulenti GenComply sono a disposizione per audit, assessment e formazione mirata.