Saturday’s Talks: fermate tutto! Qualcuno si sta iniziando a chiedere se l’intelligenza artificiale sia pericolosa…

artificial intelligence

Una lunga squadra di CEO e rappresentanti di importanti aziende ed università del mondo I.T. (e non solo), capitanata dall’istituto Future of life, ha scritto una lettera aperta affinché gli sviluppi frenetici dell’intelligenza artificiale vengano interrotti per sei mesi.

We are currently concerned by four major risks. All four hinge on the development, use and governance of transformative technologies. We focus our efforts on guiding the impacts of these technologies.

Siamo preoccupati da quattro principali rischi. Tutti e quattro si riferiscono allo sviluppo, all’utilizzo ed alla gestione di tecnologie trasformative. Il nostro impegno è quello di guidare gli impatti di queste tecnologie.

Ed i 4 rischi riguardano quattro specifici ambiti:

  • Intelligenza artificiale
  • Biotecnologie
  • Armi nucleari
  • Cambiamento climatico

Mica roba da poco.

Qualcuno si sta iniziando a chiedere se l’intelligenza artificiale sia pericolosa…

Sono sempre quattro le domande che si pongono gli autori:

  • Dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità?
  • Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti?
  • Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci?
  • Dovremmo rischiare di perdere il controllo della nostra civiltà?

Nei firmatari della lettera ci sono nomi di spicco, dal sempre solerte Elon Musk, fino a Steve Wozniak, così come altri nomi noti agli addetti ai lavori e semplici operatori del settore. Tutti uniti nel chiedere a tutti i laboratori AI di stoppare immediatamente di istruire sistemi AI più complessi di GPT-4, dandone prova, e chiedendo ai governi di intervenire laddove non fosse provata la buona volontà.

I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti.

Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano al sicuro oltre ogni ragionevole dubbio.

La lettere tiene a precisare come la richiesta non sia di una pausa nello sviluppo dell’IA in generale, ma semplicemente un passo indietro rispetto a quella che viene definita una pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti.

E fin qui la narrazione dei fatti.

Ne segue il giudizio che, per chi scrive facendo riferimento alle informazioni raggruppate sino ad oggi, è perplesso.

Che siano stati tutti shockati dalle foto di Papa Francesco generate dall’intelligenza artificiale che ha ingannato tutti, ma è stata prontamente smentita da Snopes nell’articolo This Is Not a Real Photo of the Pope in a Puffy Coat?

Eppure di deep fake si parla da ben prima di OpenAI e ChatGPT (ne abbiamo parlato nell’agosto 2020, in merito al Deepfake Detection Challenge lanciato da Facebook).

Che qualcuno abbia realizzato come il fatto che ChatGPT sia il progetto con la crescita di utenti più grossa della storia possa fare di Microsoft (di fatto proprietaria di ChatGPT) l’unico player nel mercato AI?

Eppure tra i firmatari della lettera ci sono numerosissime persone di Microsoft. Curiosamente nessun CEO/CTO/CIO e va fatto notare come, altrettanto curiosamenteMicrosoft abbia dismesso il team che doveva occuparsi di etica, responsabilità e sostenibilità in ambito AI.

Quindi?

Perché qualcuno si sta iniziando a chiedere se l’intelligenza artificiale sia pericolosa?

Perché la paura emerge oggi?

Perché sui telegiornali e nei siti di news non si parla del bug di ChatGPT che consente di rivelare lo storico, ed i dati personali e di fatturazione degli utenti e ci si concentra invece sul fatto che Elon Musk si è fatto promotore di questa “campagna”?

Davvero la priorità è dire fermate tutti perché altrimenti nascerà Skynet?

Oppure qualcuno si sente giù dal treno ed ha bisogno di tempo per risalirci?

Si accettano opinioni e pareri, dite la vostra!

790f89849d535c46ddf9fb9b8fa033b4?s=150&d=mp&r=g
Raoul Scarazzini

Da sempre appassionato del mondo open-source e di Linux nel 2009 ho fondato il portale Mia Mamma Usa Linux! per condividere articoli, notizie ed in generale tutto quello che riguarda il mondo del pinguino, con particolare attenzione alle tematiche di interoperabilità, HA e cloud.
E, sì, mia mamma usa Linux dal 2009.

Fonte: https://www.miamammausalinux.org/2023/04/saturdays-talks-fermate-tutto-qualcuno-si-sta-iniziando-a-chiedere-se-lintelligenza-artificiale-sia-pericolosa/

Se vuoi sostenerci, puoi farlo acquistando qualsiasi cosa dai diversi link di affiliazione che abbiamo nel nostro sito o partendo da qui oppure alcune di queste distribuzioni GNU/Linux che sono disponibili sul nostro negozio online, quelle mancanti possono essere comunque richieste, e su cui trovi anche PC, NAS e il ns ServerOne. Se ti senti generoso, puoi anche donarmi solo 1€ o più se vuoi con PayPal e aiutarmi a continuare a pubblicare più contenuti come questo. Grazie!

Hai dubbi o problemi? Ti aiutiamo noi!

Se vuoi rimanere sempre aggiornato, iscriviti al nostro canale Telegram.
Se vuoi ricevere supporto per qualsiasi dubbio o problema, iscriviti alla nostra community Facebook o gruppo Telegram.
Cosa ne pensi? Fateci sapere i vostri pensieri nei commenti qui sotto.
Ti piace quello che leggi? Per favore condividilo con gli altri.
Amazon Music
Scopri le ultime offerte per dischi ssd su Acquista su Amazon
Scopri le ultime offerte per memorie RAM DDR su Acquista su Amazon
Scopri le ultime offerte per Chromebook su Acquista su Amazon
Scopri le ultime offerte per Raspberry su Acquista su Amazon

Potrebbero interessarti anche...

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.