Mai tradito mia moglie… Mai infilato un raro cavalluccio marino in tasca al vicino di aereo… Mai divulgato segreti aziendali… Mai lasciato un pagamento inevaso… Davvero? Dove non arrivano il poligrafo o i mentalisti di Lie to me, c’è H.E.A.T.™ (Human Emotion Analysis Technology): un software che smaschera i bugiardi. Progettato per essere utilizzato in contesti extra giudiziari e con il consenso dell’esaminato, nella security si può utilizzare per le investigazioni private nelle analisi OSINT, spesso parte dell’offerta della vigilanza privata, e nella gestione della sicurezza aeroportuale. In anteprima per il mercato italiano, un’intervista a John Kilmer, fondatore e CSO di Valicor US™.
Dal poligrafo ai mentalisti di Lie to me, l’uomo ha sempre cercato di smascherare i bugiardi. Ma è davvero possibile (e soprattutto scientifico)?
Resta una sfida, ma oggi è scientificamente possibile individuare la menzogna. ValiCor USA H.E.A.T.™ (Human Emotion Analysis Technology) utilizza un mix di algoritmi ad AI e apprendimento automatico per analizzare le espressioni facciali, il linguaggio del corpo e i modelli emotivi per identificare e classificare le emozioni che possono indicare la presenza di un inganno. H.E.A.T. applica con modelli matematici quanto validato da studi più che autorevoli, come quelli condotti dall’American University e dal U.S. Department of Veterans Affairs, che dimostrano che si possono individuare le menzogne con una buona dose di approssimazione attraverso un accurato calcolo probabilistico. Se l’analisi umana può raggiungere una precisione del 54%, H.E.A.T. arriva al 78% perché coglie anche le emozioni impercettibili all’occhio umano. Non siamo ancora al 100%, ma è un bel passo avanti.
Mi pare siamo nel campo del Behavioral Intelligence, tra i rami più promettenti anche nelle attività OSINT, di interesse per investigatori privati e non solo: che tecnologie utilizza il vostro software?
Il software analizza in tempo reale espressioni del viso, linguaggio del corpo e sequenze emotive (sia in tempo reale che sul registrato): con un sofisticato sistema di codifica, sartorizzato per ciascuna tipologia di applicazione, H.E.A.T. stima la probabilità che le espressioni del soggetto corrispondano a specifiche emozioni. Il software genera “profili emozionali” che includono le sei principali emozioni umane: felicità, tristezza, disgusto, paura, sorpresa e rabbia, ma allo studio del nostro R&D c’è la convalida di oltre 120 emozioni dello spettro. Rilasciando grafici e diagrammi di immediata consultazione, H.E.A.T. agevola l’esaminatore – analisti OSINT inclusi – nella comprensione dello stato emotivo del soggetto esaminato per assumere decisioni informate. Il tutto anche su materiale video registrato o ripreso da piattaforme di uso massivo come YouTube. Oltre a generare un alert in scenari di sicurezza, intelligence o rischio finanziario, i dati possono essere utilizzati in campo sanitario per valutare la salute e il benessere mentale di un paziente o per monitorare un disturbo da stress post-traumatico.
L’AI Act, prima legge europea sull’intelligenza artificiale, vieta alcune applicazioni ritenute dannose per i diritti dei cittadini: tra queste si annoverano espressamente i sistemi ad AI che riconoscono le emozioni sul posto di lavoro e a scuola, e quelle che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone. Come si pone il vostro algoritmo?
La nostra tecnologia è progettata per aderire ai migliori standard etici e requisiti normativi, incluso l’AI Act. Ricordo che l’obiettivo principale del nostro software è fornire strumenti di valutazione supplementari per i professionisti che devono intraprendere un processo decisionale. Il primario campo di applicazione è il supporto alla salute mentale e al benessere della persona: H.E.A.T. è pensato proprio come strumento di empowerment della persona e per aiutare a comprendere la natura delle proprie emozioni con informazioni oggettive. Intenti manipolatori o sfruttamento delle vulnerabilità umane sono obiettivi del tutto estranei allo spirito della nostra tecnologia. ValiCor US protegge peraltro il Profilo Emozionale (PE) dell’utente: non vede né tratta dati personali (che l’utente può ovviamente chiedere di eliminare).
In Italia il test del poligrafo non è accettato come prova nei procedimenti giudiziari (anzi è espressamente vietato dall’art. 188 cpp, anche in caso di scelta volontaria dell’interrogato), ma può essere occasionalmente svolto – previa esplicita acquisizione del consenso – in contesti non giudiziari (ad esempio in indagini interne aziendali per l’assunzione di personale, in casi di furto in azienda o in investigazioni private purché operate nel rispetto delle stringenti normative privacy italiane). E’ questo il mercato al quale pensate di rivolgervi?
Il software è progettato per essere utilizzato negli stessi contesti extra giudiziari in cui è ammesso in Italia il test del poligrafo. Le applicazioni più comuni in questo campo sono la valutazione delle risorse umane a fini di selezione dei candidati e indagini aziendali private, per aiutare chi di dovere a prendere decisioni informate. Quanto al rispetto delle norme privacy, l’utilizzo del software richiede il consenso dell’esaminato, a garanzia di un’applicazione etica e compliant.
Gli USA hanno però un quadro giuridico molto diverso dal nostro: quale mercato immagina per H.E.A.T. negli Stati Uniti?
Da noi, H.E.A.T. vanta un’ampia gamma di mercati potenziali: dalla sanità (per assistere i professionisti della salute mentale e migliorare la cura dei pazienti, fino al monitoraggio del disturbo da stress post-traumatico), alle forze dell’ordine e di sicurezza aziendale e privata per migliorare il processo decisionale nelle indagini e nella gestione del rischio). E ancora: assistenza nel reclutamento, nella verifica e nella gestione di programmi di benessere dei dipendenti in ambito HR. Vuoi vedere quanto sei bravo a mentire? Testa le capacità di H.E.A.T.: https://www.valicor.us/