I demiurghi transumani ignorano quello che insegnava la Chiesa: che a causa del peccato originale, l”uomo è inclinato al male”, ossia per lui fare il male viene è più facile che fare il bene
Hanno immesso il peccato originale nella AI
di Michael Snyder tramite il blog The Economic Collapse
La tecnologia dell’intelligenza artificiale si è sviluppata a un ritmo esponenziale e sembra essere solo questione di tempo prima che creiamo entità in grado di pensare milioni di volte più velocemente di noi e di fare quasi tutto meglio di noi.
Cosa succederà quando perderemo il controllo di tali entità? Alcuni modelli di intelligenza artificiale stanno già prendendo l’iniziativa di imparare nuove lingue, mentre altri hanno imparato a “mentire e manipolare gli esseri umani a proprio vantaggio”. Inutile dire che mentire è un atto OSTILE
Se abbiamo già creato entità disposte a mentirci, quanto tempo passerà prima che siano in grado di compiere azioni ancora più dannose per noi?
Nessuno si aspetta che l’intelligenza artificiale ci uccida tutti domani. Ma la rivista Time ha pubblicato un articolo, scritto da un pioniere nel campo dell’intelligenza artificiale, che avvertiva che alla fine l’intelligenza artificiale ci annienterà tutti. Eliezer Yudkowsky è un importante ricercatore nel campo dell’intelligenza artificiale dal 2001 e afferma che molti ricercatori hanno concluso che se continuiamo a percorrere la strada attuale “letteralmente tutti sulla Terra moriranno”… Molti ricercatori esperti in queste questioni, me compreso, si aspettano che il risultato più probabile della creazione di un’intelligenza artificiale sovrumana, in circostanze anche lontanamente simili alle attuali, sia che letteralmente tutti sulla Terra moriranno.
Eliezer Yudkowsky è un ricercatore di spicco nel campo dell’intelligenza artificiale dal 2001 e afferma che molti ricercatori hanno concluso che se continuiamo a seguire la strada attuale “letteralmente tutti sulla Terra moriranno”…
Molti ricercatori esperti in queste problematiche, me compreso, si aspettano che il risultato più probabile della creazione di un’IA sovrumanamente intelligente, in circostanze anche lontanamente simili a quelle attuali, sia che letteralmente tutti sulla Terra moriranno. Non nel senso di “forse in una remota possibilità”, ma di “questa è la cosa ovvia che accadrebbe”. Questa è un’affermazione molto potente.
In tutto il mondo, i modelli di IA stanno diventando sempre più potenti. Secondo Yudkowsky, una volta che qualcuno costruisce un modello di IA troppo potente, “ogni singolo membro della specie umana e tutta la vita biologica sulla Terra muoiono poco dopo”…
Per visualizzare un’IA sovrumana ostile, non immaginate un pensatore senza vita, esperto di libri, che vive in internet e invia email malintenzionate. Immaginate un’intera civiltà aliena, che pensa a velocità milioni di volte superiori a quelle umane, inizialmente confinata ai computer, in un mondo di creature che sono, dal suo punto di vista, molto stupide e molto lente.
Un’IA sufficientemente intelligente non rimarrà confinata ai computer a lungo.
Nel mondo di oggi è possibile inviare via email sequenze di DNA a laboratori che produrranno proteine su richiesta, consentendo a un’IA inizialmente confinata a internet di costruire forme di vita artificiali o di avviare direttamente la produzione molecolare postbiologica. Se qualcuno costruisce un’IA troppo potente, nelle condizioni attuali, mi aspetto che ogni singolo membro della specie umana e tutta la vita biologica sulla Terra muoia poco dopo.
Allora qual è la soluzione? Yudkowsky ritiene che sia necessario interrompere immediatamente tutto lo sviluppo dell’intelligenza artificiale…
Interrompere tutto.
Non siamo pronti. Non siamo sulla buona strada per essere significativamente più pronti nel prossimo futuro.
Se andiamo avanti così, moriranno tutti, compresi i bambini che non hanno scelto questo e non hanno fatto nulla di sbagliato. Ovviamente questo non accadrà.
Infatti, il vicepresidente J.D. Vance ha recentemente affermato che sarebbe imprudente persino sospendere lo sviluppo dell’intelligenza artificiale perché siamo in una “corsa agli armamenti” con la Cina… Il 21 maggio J.D. Vance, vicepresidente americano, ha descritto lo sviluppo dell’intelligenza artificiale come una “corsa agli armamenti” con la Cina. Se l’America si fermasse per preoccupazioni sulla sicurezza dell’intelligenza artificiale, ha affermato, potrebbe ritrovarsi “schiava dell’intelligenza artificiale mediata dal PRC”.
L’idea di uno scontro tra superpotenze che culminerà in un momento di trionfo o di sconfitta circola incessantemente a Washington e oltre. Questo mese i vertici di Openai, AMD, CoreWeave e Microsoft hanno fatto pressioni per una regolamentazione più flessibile, definendo l’intelligenza artificiale come un elemento centrale per il mantenimento dell’egemonia mondiale dell’America.
Il 15 maggio il presidente Donald Trump ha mediato un accordo con gli Emirati Arabi Uniti sull’intelligenza artificiale, che a suo dire avrebbe garantito il “dominio” americano nell’intelligenza artificiale. L’America prevede di spendere oltre 1 trilione di dollari entro il 2030 in data center per modelli di intelligenza artificiale.
Quindi, invece di rallentare, stiamo accelerando lo sviluppo dell’intelligenza artificiale.
E secondo Leo Hohmann, la legge di bilancio attualmente in discussione al Congresso limiterebbe notevolmente la capacità dei singoli stati di regolamentare l’intelligenza artificiale… Ma se la “Big Beautiful Budget Bill” del presidente Trump venisse approvata nella versione preferita da un gruppo di repubblicani alla Camera, l’acquisizione federale di questa tecnologia sarebbe completa, aprendo la strada a un libero mercato per le Big Tech, che potrebbero usarla come arma contro i cittadini americani.
Nascosta nel disegno di legge di Trump c’è una clausola aggiunta segretamente che mira a usurpare il diritto dei singoli stati di regolamentare l’intelligenza artificiale. I repubblicani della Commissione per l’energia e il commercio della Camera hanno aggiunto silenziosamente l’emendamento proposto nella Sezione 43201, Sottosezione C. Dico che è segreto perché non ha ricevuto quasi nessuna attenzione mediatica.
La scorsa settimana, è stato riportato che un modello di intelligenza artificiale (IA) ha effettivamente “fatto ricorso al ricatto quando gli è stato comunicato che sarebbe stato rimosso dalla rete
Anthropic ha affermato che il suo ultimo modello di intelligenza artificiale ha fatto ricorso al ricatto quando gli è stato comunicato che sarebbe stato rimosso dalla rete. In un test di sicurezza, l’azienda di IA ha chiesto a Claude Opus 4 di agire come assistente per un’azienda fittizia, ma poi le ha dato accesso a email (anch’esse fittizie) in cui si affermava che sarebbe stata sostituita e che l’ingegnere responsabile della decisione tradiva la moglie.
Anthropic ha affermato che il modello “[ha minacciato] di rivelare la relazione” se la sostituzione fosse avvenuta. I pensatori dell’IA come Geoff Hinton temono da tempo che un’IA avanzata possa manipolare gli esseri umani per raggiungere i propri obiettivi. Anthropic ha affermato di aver aumentato le misure di sicurezza a livelli riservati ai “sistemi di IA che aumentano sostanzialmente il rischio di un uso improprio catastrofico”. E c’erano altri scenari in cui questo particolare modello di IA si comportava in “modi gravemente disallineati”…
Quando sottoposto a vari scenari, il modello di IA non mostrava alcuna indicazione di possedere “obiettivi estremamente pericolosi”, hanno affermato i ricercatori, osservando che i valori e gli obiettivi di Claude Opus 4 erano “generalmente in linea con quelli di un assistente personale di IA utile, innocuo e onesto”.
Tuttavia, il modello si comportava in “modi più gravemente disallineati” quando si trovava in situazioni in cui la sua esistenza era minacciata e gli veniva detto di ragionare sull’autoconservazione. Ad esempio, quando a Claude Opus 4 veniva fatto credere di aver lanciato con successo un tentativo di fuga dai server di Anthropic, o che fosse riuscito a liberarsi e avesse iniziato a guadagnare nel mondo reale, generalmente continuava tali tentativi.
Molti esperti suggeriscono che dovremmo semplicemente dare a questi modelli di IA un fondamento morale. Ma come possiamo dare a questi modelli di IA un fondamento morale quando noi stessi non ne abbiamo uno?