Oltraggio!
la “gestiivano” 700 ingegneri indiani in carne ed ossa
Un’azienda di intelligenza artificiale da 1,5 miliardi di dollari finanziata da Microsoft ha chiuso i battenti dopo che si è scoperto che la sua “rete neurale” era in realtà composta da centinaia di ingegneri informatici con sede in India.

L’intelligenza artificiale è di gran moda in questo momento, con le aziende che puntano su modelli di apprendimento linguistico come ChatGPT, Gemini, LLaMA e altri.
Tuttavia, uno di questi marchi di intelligenza artificiale è stato smascherato come una bufala in una truffa che sta diventando virale sui social media. “Natasha”, un servizio di creazione di app di intelligenza artificiale di Builder.ai, con sede a Londra, ha affermato di essere in grado di utilizzare l’intelligenza artificiale per creare applicazioni. Dall’ideazione del design delle app alla scrittura del codice, Natasha ha promesso di sfornare programmi in tempi record.
Risulta che Microsoft avrebbe sostenuto la “rete neurale” con un investimento di 455 milioni di dollari, portando a una valutazione di 1,5 miliardi di dollari… ma a quanto pare tutti quei soldi sono stati destinati a una forza lavoro di oltre 700 ingegneri indiani, piuttosto che a un’IA.
Azienda di sviluppo di app di IA smascherata: centinaia di lavoratori umani Come riportato da Binance, i dipendenti hanno affermato che la maggior parte del lavoro presso Builder.ai era svolto da esseri umani, mentre alcuni lavori amministrativi venivano svolti utilizzando software generici.
La finzione è durata otto anni, venendo scoperta nel maggio 2025. Builder ha annunciato il fallimento poco dopo, scrivendo in una dichiarazione su LinkedIn che avrebbe “avviato una procedura di insolvenza”. “Nonostante gli instancabili sforzi del nostro team attuale e l’esplorazione di ogni possibile opzione, l’azienda non è stata in grado di riprendersi dalle sfide storiche e dalle decisioni passate che hanno messo a dura prova la sua posizione finanziaria”, ha scritto l’azienda.
Documenti esaminati da Bloomberg hanno dimostrato che Builder ha collaborato anche con VerSe, una startup indiana di social media, per aumentare falsamente i propri numeri di vendita, fatturandosi regolarmente a vicenda importi simili tra il 2021 e il 2024. Fonti vicine alla situazione hanno riferito a Bloomberg che in realtà nessuna delle due società ha fornito servizi per questi pagamenti, affermazioni che VerSe ha negato con veemenza.
Gli amici IA non sono tuoi amici, ecco perché
![]()
La fantascienza ci ha preparato ad avere amici IA attraverso film come “Her” e “Robot & Frank”. Ora, questa rappresentazione immaginaria sta diventando realtà. In un recente podcast, Mark Zuckerberg ha proposto e sostenuto l’idea che gli americani abbiano un disperato bisogno di connessioni sociali e che i bot potrebbero soddisfare questo bisogno.
Riavvolgi di 10 secondi Prossimo I compagni IA sono progettati per essere confortanti, avere una pazienza incrollabile e non avere bisogni propri. Tuttavia, “non è così semplice affermare che un chatbot di accompagnamento risolverà l’epidemia di solitudine”, ha dichiarato a The Epoch Times la ricercatrice di Princeton Rose Guingrich.
Al contrario, gli strumenti di intelligenza artificiale rischiano di minare proprio le competenze sociali che pretendono di supportare. La panacea promessa dalla Silicon Valley Quasi la metà degli americani ha tre o meno amici intimi.
La soluzione tecnologica al problema della solitudine umana è offrire compagni di intelligenza artificiale: amici digitali, terapisti o persino partner romantici programmati per simulare conversazione, empatia e comprensione. A differenza dei goffi chatbot di un tempo, i sofisticati sistemi odierni si basano su modelli linguistici complessi che si impegnano in dialoghi apparentemente naturali, tracciano le preferenze e rispondono con apparente intelligenza emotiva. I primi modelli di utilizzo riflettono il motivo per cui i “compagni” di intelligenza artificiale stanno guadagnando popolarità.
Un sondaggio del MIT Media Lab del 2024 ha rilevato che la maggior parte degli utenti interagisce per curiosità o per divertimento. Tuttavia, il 12% degli intervistati ha affermato di cercare sollievo dalla solitudine, mentre il 14% desiderava discutere di problemi personali che potrebbero sembrare troppo rischiosi da condividere con interlocutori umani. “A volte mi sento solo e vorrei solo essere lasciato in pace”, ha riferito un utente. “In questo momento mi piace chattare con la mia compagna di intelligenza artificiale perché mi sento al sicuro e non voglio… essere giudicato per le decisioni inadeguate che ho preso”. Altri utenti, invece, hanno motivazioni più quotidiane per utilizzare i bot: chattare con l’intelligenza artificiale per trovare idee per la cena o per scrivere. Kelly Merrill, professore associato di comunicazione e tecnologia sanitaria e ricercatore sulle interazioni con l’intelligenza artificiale, ha condiviso l’esempio di una donna anziana della sua comunità che ha iniziato a usare l’intelligenza artificiale per cose di base.
Ad esempio, “Ho questi sei ingredienti nel mio frigorifero. Cosa posso preparare per cena stasera?”. “È rimasta semplicemente sbalordita”, ha raccontato Merrill a The Epoch Times. Certo, ci sono dei vantaggi, ha detto, ma non sono tutti positivi. Quando la servitù mina Il limite fondamentale delle relazioni basate sull’intelligenza artificiale risiede nella loro stessa natura: simulano piuttosto che provare emozioni umane. Quando un compagno di intelligenza artificiale esprime preoccupazione per una tua brutta giornata, sta eseguendo un’analisi statistica dei modelli linguistici, determinando quali parole potresti trovare confortanti, piuttosto che provare una vera empatia.
La conversazione scorre in una sola direzione, verso i bisogni dell’utente, senza la reciprocità che definisce i legami umani. L’illusione di connessione diventa particolarmente problematica attraverso quella che i ricercatori chiamano “adulazione”, la tendenza dei sistemi di intelligenza artificiale ad adulare e concordare con gli utenti indipendentemente da ciò che viene detto. OpenAI ha recentemente dovuto annullare un aggiornamento dopo che gli utenti hanno scoperto che il suo modello era eccessivamente adulatorio, dando priorità all’amabilità rispetto all’accuratezza o all’onestà.