L’intelligenza artificiale è progettata per aiutare nel processo decisionale quando i dati, i parametri e le variabili sono oltre la comprensione umana.Le considerazioni etiche, morali e di altro genere umane che guidano il corso degli affari, della vita e della società in generale non vengono catturate né soddisfatte dall’intelligenza artificiale.È possibile misurare se un sistema di intelligenza artificiale è pronto per il mondo reale, in cui le macchine possono pensare in modo indipendente e prendere le stesse decisioni etiche e morali che prendono gli esseri umani? I problemi del carrello sono di tutte le forme e dimensioni e le decisioni non devono necessariamente essere così mortali, anche se potrebbero significare problemi per un’azienda, un individuo o la società in generale.Sarebbe stata una decisione basata sui fatti.È possibile introdurre esperienze, sentimenti ed empatia più soggettivi che rendono il nostro mondo un posto migliore in cui vivere e lavorare? È possibile introdurre esperienze, sentimenti ed empatia più soggettivi che rendono il nostro mondo un posto migliore in cui vivere e lavorare? L’intelligenza artificiale si basa sulle risposte a modelli e dati e spesso manca il quadro generale e la maggior parte delle volte non è in grado di analizzare la decisione con un ragionamento alla base.L’intelligenza artificiale si basa sulle risposte a modelli e dati e spesso non riesce a cogliere il quadro generale e la maggior parte delle volte non riesce ad analizzare la decisione con una logica dietro.L’intelligenza artificiale potrebbe non essere così avanzata quando si tratta di guardare al contesto totale di altre situazioni del mondo reale e le sue decisioni potrebbero essere consequenziali.TAY sta per Thinking About You ed è stato lanciato da Microsoft.Quando è stato liberato per lavorare autonomamente senza l’intervento umano, ha iniziato a comportarsi male, facendo commenti razzisti e dispregiativi ad altri utenti.Immagina se una hotline suicida dovesse essere gestita da un sistema di intelligenza artificiale senza un essere umano nel giro.Il creatore del bot ha affermato che non era appropriato per interagire con i pazienti nel mondo reale a causa della natura imprevedibile del software
Ci sono implicazioni nel mondo reale per il business quando ci sono carenze nel processo decisionale.Il “problema del carrello” è che l’intelligenza artificiale sta decidendo se sia più ottimale per la banca mantenere proficue relazioni con i clienti e la comunità, o se debba gestire il proprio rischio in modo più rigoroso perdendo valori umani negli ultimi anni.

C’è il rischio che le macchine selezionino e producano ciò che leggeremo o visualizzeremo se non prendono le giuste decisioni sul tipo di contenuto che le persone cercano di consumare, cosa più importante, producono contenuti di qualità imparziale originali come possono fare gli esseri umani? Anche se non sembrano o si comportano ancora come un vero essere umano, si stanno avvicinando.Le decisioni aziendali, le azioni individuali e la qualità della vita della società in generale potrebbero essere influenzate dall’uso dell’intelligenza artificiale.Man mano che le macchine passano dall’essere programmate per seguire le istruzioni al prendere autonomamente decisioni basate sull’autoapprendimento e sull’auto-ragionamento, la fiducia che gli esseri umani hanno per loro si eroderà.Secondo Patrick Long in The Future of Decisions, ci sono tre livelli di processo decisionale guidato dalla macchina o potenziato.I leader aziendali e tecnologici devono garantire che i loro sistemi di intelligenza artificiale dispongano dei controlli e degli equilibri necessari per essere etici e morali.Le persone che costruiscono e utilizzano sistemi di intelligenza artificiale devono essere consapevoli della necessità di etica, moralità ed equità nel loro processo decisionale.In ogni fase del processo, i leader devono mettere in discussione le decisioni fornite dai loro sistemi.informazioni di pregiudizio implicito relative a identità razziali, di genere, di origine o politiche possono essere contenute nei dati utilizzati per addestrare modelli di intelligenza artificiale
Insieme ai pregiudizi dannosi per gli individui, i dati distorti possono anche amplificare i pregiudizi esistenti da parte dei decisori.I dati inseriti in un sistema di intelligenza artificiale devono essere analizzati per individuare determinati pregiudizi.Sulla base dei dati disponibili, esiste la possibilità che gli algoritmi siano in grado di fare ciò che ci si aspetta da loro.È importante verificare la presenza di risultati non intenzionali che potrebbero essere basati su inferenze soggettive
Ci vorrà del tempo prima che i sistemi riflettano i sentimenti delle persone che prendono le decisioni.I leader aziendali devono sapere che le informazioni dettagliate basate sui dati sono solo una parte del processo decisionale e che l’intelligenza artificiale riflette solo la programmazione e i dati che vi entrano.L’intelligenza artificiale non è ancora pronta per decisioni del mondo reale come DALL-E, enormi trasformatori di linguaggio e modelli di visione/apprendimento profondo.L’intelligenza artificiale ha ancora molta strada da fare per prendere le decisioni finali in situazioni di vita reale
L’intelligenza artificiale può essere in grado di prendere le decisioni giuste sulla base dei fatti, ma potrebbe non essere in grado di entrare in empatia con le decisioni
Gli esseri umani devono ancora valutare il valore delle intuizioni e delle decisioni per il benessere degli esseri umani, delle imprese e delle comunità
L’intelligenza artificiale può aiutare con i punti decisionali, ma gli esseri umani devono comunque essere coinvolti nel prendere quella decisione e deve essere un’intelligenza aumentata.

You may also like

Leave a reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *