Secondo un rapporto, il motore chatgtt di openai è un problema per l’azienda, oltre che una minaccia per il business dell’azienda.

Secondo un promemoria interno visionato dal New York Times, Pichai ha “ribaltato il lavoro di numerosi gruppi all’interno dell’azienda” e sta prelevando personale da altre divisioni per far fronte alla minaccia ai piani di Openai”.

È un grosso problema se quella ricerca verrà sostituita da sistemi di intelligenza artificiale che possono fornire risultati di ricerca più accurati.

Il rapporto afferma che una serie di annunci di intelligenza artificiale saranno fatti dal gigante della ricerca a maggio.

Vedremo se si tratta di prodotti funzionali o solo un modo per recuperare.

Se qualcosa minaccia il business altamente redditizio che costituisce circa il 90 percento dei profitti dell’azienda, è qualcosa che Sundar potrebbe avere motivo di temere.

La lotta in corso tra artisti umani e ArtStation, il sito che mostra le immagini e mostra i dati per scopi di intelligenza artificiale, ha fatto un passo avanti.

Molti utenti del sito hanno protestato la scorsa settimana per l’uso delle loro immagini non accreditate per addestrare modelli per l’arte.

ArtStation consente ai formatori di intelligenza artificiale di prendere il lavoro umano legittimo e creare arte, ma potenzialmente anche far fallire gli artisti.

Daremo agli utenti un maggiore controllo su ciò che vedono e su come utilizzano ArtStation in futuro.

Il Facial Accountability, Clarity, and Efficiency In Technology Act (FACE IT) è stato introdotto dal senatore uscente Rob Portman (D-OH).

Lo statuto richiederebbe al NIST di stabilire standard di accuratezza minimi accettabili per la tecnologia di riconoscimento facciale e consentire ai cittadini di rinunciare.

Portman è preoccupata per il potenziale abuso della tecnologia di riconoscimento facciale che può essere utilizzata per aiutare a proteggere le nostre comunità.

Date le implicazioni sulla libertà civile dell’uso della tecnologia di riconoscimento facciale da parte del governo federale, dobbiamo approvare una legislazione per stabilire regole per questa tecnologia.

Il National Evaluation Act chiarirebbe che le leggi esistenti sui diritti civili si applicano alle decisioni prese dai sistemi di intelligenza artificiale proprio come se fossero prese dagli esseri umani.

You may also like

Leave a reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *