Kit Media
Loghi, copertine del libro, foto, biografie degli autori, citazioni e immagini di sfondo da usare in articoli, recensioni e contenuti dedicati a Prima che sia troppo tardi: perché la superintelligenza artificiale è una minaccia per l’uminità.
Eliezer Yudkowsky è uno dei ricercatori fondatori del campo dell'allineamento dell'IA e cofondatore del Machine Intelligence Research Institute. Con un lavoro influente che si estende per oltre vent'anni, Yudkowsky ha svolto un ruolo importante nel plasmare il dibattito pubblico sull'IA più intelligente degli esseri umani. È apparso nella lista 2023 delle 100 persone più influenti nell'IA della rivista Time, ed è stato citato o intervistato da The New Yorker, Newsweek, Forbes, Wired, Bloomberg, The Atlantic, The Economist, The Washington Post e altri.
Nate Soares è il Presidente del Machine Intelligence Research Institute. Lavora nel settore da oltre un decennio, dopo precedenti esperienze in Microsoft e Google. Soares è autore di un ampio corpus di testi tecnici e semitecnici sull'allineamento dell'IA, inclusi lavori fondamentali sull'apprendimento dei valori, sulla teoria della decisione e sugli incentivi alla ricerca di potere nelle IA più intelligenti degli esseri umani.
/OOH%20ads/OOH%20SF%20skyway%20billboard/MIRI%20SF%20Billboard%20FINAL%20Visual%20Ref%2007.08.25.jpg)
/Semafor%20Website%20Ads/Semafor%20Ad%20Files/MIRI%20Semafor%20Ad%20-%20mobile%20retina%20-%20600x500.jpg)
/Semafor%20Website%20Ads/Semafor%20Ad%20Files/MIRI%20Semafor%20Ad%20-%20mobile%20retina%20-%20600x100.jpg)
/book%20assets/IABIED%20hardcover%20UK%20-%20HIGH%20RES.png)
/book%20assets/IABIED%20hardcover%20US%20-%20HIGH%20RES.png)

/book%20assets/US_cover_3D_spine_NOshadow.png)
/Nate%20Soares0179-4.jpg)
/Semafor%20Website%20Ads/Semafor%20Ad%20Files/MIRI%20Semafor%20Ad%20-%20desktop%20retina%20-%20600x1200.jpg)

/promo%20creatives/UK%20book%20announcement/MIRI%20v1%20graphics/Image1.jpg)
/Nate%20Soares0938-11.jpg)
/book%20assets/US_cover_3D_spine_shadow.png)

/preview5.jpg)

/image%20(3).png)

/image%20(2).png)
Citazioni
Un'argomentazione convincente del fatto che un'IA superumana porterebbe quasi certamente all'annientamento globale dell'umanità. I governi di tutto il mondo devono riconoscere i rischi e agire in modo collettivo ed efficace.Jon Wolfsthal, ex assistente speciale del presidente per gli affari di sicurezza nazionale
Il libro più importante che abbia letto da anni: vorrei portarlo a ogni leader politico e aziendale del mondo e restare al loro fianco finché non l'avranno letto.Stephen Fry, attore e scrittore
Gli autori sollevano una questione incredibilmente seria che merita, anzi richiede, la nostra attenzione. Non serve condividere le previsioni o le prescrizioni di questo libro, né essere esperti di tecnologia o di IA, per trovarlo affascinante, accessibile e ricco di spunti.Suzanne Spaulding, ex sottosegretaria del Dipartimento per la Sicurezza Interna degli Stati Uniti
Prima che sia troppo tardi non è soltanto un campanello d'allarme; è una sirena antincendio che risuona con chiarezza e urgenza.Mark Ruffalo, attore
Esplorare queste possibilità aiuta a far emergere rischi e interrogativi cruciali che collettivamente non possiamo permetterci di ignorare.Yoshua Bengio, vincitore del Premio Turing e direttore scientifico di MILA
Questo è il nostro avvertimento. Leggetelo oggi. Diffondetelo domani. Pretendete i guardrail. Continuerò a scommettere sull'umanità, ma prima dobbiamo svegliarci.R.P. Eddy, ex direttore del Consiglio per la Sicurezza Nazionale della Casa Bianca
Un resoconto chiaro e convincente dei rischi esistenziali che un'IA altamente avanzata potrebbe porre all'umanità. Consigliato.Ben Bernanke, premio Nobel ed ex presidente della Federal Reserve
Una lettura essenziale per decisori politici, giornalisti, ricercatori e grande pubblico.Bart Selman, professore di informatica, Cornell University
Soares e Yudkowsky spiegano, in termini chiari e facili da seguire, perché il nostro percorso attuale verso IA sempre più potenti è estremamente pericoloso.Emmett Shear, ex CEO ad interim di OpenAI
Un libro sobrio ma molto leggibile sui rischi fin troppo reali dell'IA.Bruce Schneier, tra i massimi esperti di sicurezza informatica
Pur essendo scettico sul fatto che l'attuale traiettoria dello sviluppo dell'IA porterà all'estinzione umana, riconosco che questa posizione potrebbe riflettere una mia mancanza di immaginazione. Considerato il ritmo esponenziale del cambiamento nell'IA, non c'è momento migliore per adottare misure prudenti contro gli scenari peggiori. Gli autori offrono proposte importanti per guardrail globali e mitigazione del rischio che meritano seria considerazione.Lieutenant General John N.T. "Jack" Shanahan (USAF, Ret.), direttore inaugurale del Joint AI Center del Dipartimento della Difesa
Il libro più importante del decennio.Max Tegmark, professore di fisica, MIT
Questo libro offre intuizioni brillanti sul confronto più decisivo della storia tra utopia tecnologica e distopia, e mostra come possiamo e dobbiamo impedire che un'IA superumana ci uccida tutti.George Church, membro fondatore del corpo docente del Wyss Institute, Harvard University
La migliore spiegazione semplice, schietta e senza fronzoli del problema del rischio dell'IA che abbia mai letto.Yishan Wong, ex CEO di Reddit
Gli esseri umani sono fortunati ad avere Soares e Yudkowsky dalla loro parte, a ricordarci di non sprecare la breve finestra di tempo che abbiamo per prendere decisioni sul nostro futuro.Grimes, musicista
Una guerra dell'intelligenza artificiale non può essere vinta e non deve mai essere combattuta.Dr Brooke Taylor, CEO, Defending Our Country, LLC
Uso e licenza
Salvo diversa indicazione, tutti i materiali presenti in questa pagina (foto, copertine, sfondi e file correlati) sono dedicati al pubblico dominio tramite la CC0 1.0 Public Domain Dedication. Puoi copiarli, modificarli, distribuirli e usarli, anche per scopi commerciali, senza autorizzazione né attribuzione. Se l'attribuzione è comoda, ti chiediamo di citare Prima che sia troppo tardi: perché la superintelligenza artificiale è una minaccia per l’uminità o di linkare questa pagina. I marchi di terze parti, le copertine dei libri e i loghi restano di proprietà dei rispettivi titolari e non sono coperti da questa dedicazione.