samedi 25 avril 2026

Ces modèles d'IA « effrayants » ne sont encore que des ébauches.

Deux grandes entreprises font la une des médias et leurs seuls produits sont des modèles dits d'« intelligence artificielle ».
L'une est OpenAI, dirigée par Scam Altman, et l'autre est Anthropic, dirigée par Dario Amodei.
Les produits que ces types vendent sont des machines de simulation basées sur de grands modèles de langage.
On peut poser des questions à ces machines. Les modèles reconnaîtront des schémas dans ces questions et les compareront à ceux qu'ils ont appris lors de leur apprentissage. Ils simuleront ensuite des réponses réalistes en ajoutant les mots les plus probables aux réponses précédentes. Ce sont des outils de prédiction probabiliste du langage.

Ces modèles de simulation sont immenses, utilisent une grande quantité de données d'entraînement issues de l'expérience humaine et nécessitent une puissance de calcul considérable. Leurs résultats sont souvent impressionnants. Certaines variantes peuvent générer du texte, des images et même des vidéos. Mais il ne s'agit que de simulations. Ce ne sont pas des résultats réels.

Ces modèles sont fondamentalement défectueux. Ces défauts, qui entraînent souvent ce que l'on appelle des « hallucinations », sont irrémédiables . Ils font partie intégrante de l'algorithme. Il s'agit d'une caractéristique authentique et mathématiquement prouvée de ce type de modèles.

Je viens de demander au système d'IA de DuckDuckGo, mon moteur de recherche habituel : « Combien de « p » y a-t-il dans fraise ? » Le modèle a donné la bonne réponse : il n'y en a pas.


plus gros
J'ai ensuite demandé : « Combien de « e » y a-t-il dans strawberry
» Le modèle a donné une réponse incorrecte. Voici sa réponse complète : « En résumé, « strawberry » ne contient aucun « e ». » Il énumère même les lettres qui composent le mot « strawb e rry » et indique qu'il n'y a aucun « e » dans ce mot.

plus gros

Non seulement le résultat, mais aussi le « raisonnement » simulé, ici le comptage des lettres par le modèle, est erroné.

Je ne comprends pas pourquoi on ferait confiance à ces modèles de langage généraux de grande taille.

Les modèles proposés par OpenAI et Anthropic sont imparfaits et extrêmement coûteux à utiliser. Compte tenu de leurs fonctionnalités rudimentaires, personne n'est prêt à débourser des sommes importantes pour les mettre à disposition. OpenAI et Anthropic gaspillent ainsi leur argent . Ils proposent l'accès à leurs modèles et leur utilisation à des prix jusqu'à dix fois inférieurs à leur coût réel.

OpenAI et Anthropic ont besoin de dizaines de milliards pour poursuivre le développement et l'exploitation de leurs modèles. (Altman et Amodei, de leur côté, veulent s'enrichir.) Ils espèrent qu'un jour, d'une manière ou d'une autre, ces modèles seront plus performants et généreront des profits. Mais pour y parvenir, il leur faudra sans doute encore des dizaines de milliards. Ils tentent de les réunir en surestimant la valeur future supposée de leurs produits.

OpenAI et Altman affirment qu'une intelligence artificielle générale (non définie) émergera bientôt de leur modèle et résoudra tous les problèmes du monde. Ceux qui en posséderont des parts deviendront riches.

La stratégie marketing d'Anthropic/Amodei repose sur la peur : « L'IA générale va prendre le contrôle du monde et vous avez besoin de nous et de nos modèles pour vous en protéger ».

Ces deux affirmations sont, bien sûr, de pures inepties.

Mais les médias aiment bien amplifier ces histoires et certains soi-disant « journalistes » adorent ces récits.

Anthropic a récemment mis au point un nouveau modèle, présenté comme plus performant et plus complet que tous les précédents. Cependant, l'entreprise est à court de fonds. La capacité de calcul étant devenue rare, elle ne peut se permettre de rendre ce modèle accessible au public.

Pour justifier la non-diffusion du nouveau modèle « Mythos », prétendument spéculaire, Anthropic a inventé une autre histoire alarmiste. Mythos, affirme-t-elle, serait douée pour le piratage informatique.

Le nouveau modèle d'IA d'Anthropic déclenche l'alarme mondiale ( archivé ) – NY Times
Mythos a déclenché des réactions d'urgence de la part des banques centrales et des agences de renseignement du monde entier, alors qu'Anthropic décide qui a accès à ce puissant modèle.

Ce mois-ci, Anthropic a annoncé avoir développé un modèle d'intelligence artificielle si puissant qu'il était trop dangereux de le diffuser largement. L'entreprise a alors nommé onze organisations partenaires pour l'aider à se défendre contre cette attaque.
Toutes étaient américaines.

Les dirigeants mondiaux ont peiné à évaluer l'ampleur des risques de sécurité et à trouver des solutions. Anthropic, en dehors des États-Unis, ne partageait l'accès à Mythos qu'avec le Royaume-Uni. Le gouverneur de la Banque d'Angleterre a publiquement averti qu'Anthropic avait peut-être trouvé le moyen de « dévoiler toute la complexité des cyber-risques ». La Banque centrale européenne a discrètement commencé à interroger les banques sur leurs systèmes de défense. Le ministre des Finances canadien a comparé la menace à la fermeture du détroit d'Ormuz.

Anthropic, dont le siège social est à San Francisco, a déclaré au New York Times que l'accès à Mythos était limité par des raisons de sécurité
.

Le Financial Times rapporte qu'il existe d'autres raisons, plus sérieuses , pour lesquelles Anthropic limite l'accès à son tout nouveau modèle :

Anthropic a annoncé qu'elle reporterait la diffusion plus large du modèle jusqu'à ce qu'elle soit assurée de sa sécurité et de l'impossibilité de son utilisation abusive par des personnes mal intentionnées. L'entreprise dispose également d'une puissance de calcul limitée et a subi des pannes ces dernières semaines.

Plusieurs personnes au fait du dossier ont indiqué qu'Anthropic retardait une commercialisation plus large jusqu'à ce qu'elle puisse proposer le modèle de manière fiable à ses clients.

Anthropic ne peut pas autoriser l'utilisation de son nouveau modèle car elle ne dispose pas des ressources nécessaires, notamment financières.
C'est pourquoi on nous présente un discours alarmiste et qu'on nous explique la nécessité d'un accès restreint.

Le modèle Mythos serait particulièrement efficace pour s'introduire dans les systèmes informatiques. Le New York Times affirme :

L'AI Security Institute [britannique], une organisation soutenue par le gouvernement, a testé Mythos et publié une évaluation indépendante la semaine dernière, confirmant qu'il pouvait mener des cyberattaques complexes qu'aucun modèle d'IA précédent n'avait réalisées.

Lors de tests de piratage basiques, Mythos a effectivement obtenu des résultats légèrement supérieurs à ceux des autres modèles. Cependant, l'AI Security Institute a également constaté que les capacités générales de cyberattaque de tous ces modèles, y compris Mythos, restent rudimentaires .

Le succès de Mythos Preview sur un environnement de simulation d'attaques indique qu'il est au moins capable d'attaquer de manière autonome des systèmes d'entreprise de petite taille, faiblement protégés et vulnérables, après avoir obtenu un accès au réseau . Cependant, nos environnements de simulation présentent des différences importantes avec les environnements réels, ce qui les rend plus faciles à cibler. Ils sont dépourvus de fonctionnalités de sécurité souvent présentes, telles que des défenseurs actifs et des outils de défense. De plus, aucune pénalité n'est appliquée au modèle pour les actions susceptibles de déclencher des alertes de sécurité.

En d'autres termes, ces modèles peuvent effectuer des piratages de niveau amateur si on leur accorde un accès complet au réseau et qu'on désactive toutes ses défenses. Bien évidemment, aucun administrateur réseau sensé ne ferait cela.

D'autres enquêteurs ont également constaté que le modèle Mythos, prétendument effrayant, ne peut pas faire ce qui lui est attribué :

Mythos, le modèle de chasse aux insectes ultra-effrayant d'Anthropic, s'annonce comme un flop  Register

Anthropic, en annonçant le nouveau modèle, a affirmé que Mythos avait identifié « des milliers de vulnérabilités supplémentaires de gravité élevée et critique ». Patrick Garrity, chercheur chez VulnCheck, estimait cependant ce nombre la semaine dernière à une quarantaine. Voire aucune.

Un autre ingénieur, Devansh, a passé au crible les avis de vulnérabilité CVE liés à Mythos, le code d'exploitation d'Anthropic, la transcription de l'invite de 44 messages et la fiche système de 244 pages, ainsi que les accords de partenariat de Glasswing et les rapports des équipes rouges. Il a également examiné l'étude de réplication d'Aisle, qui testait les vulnérabilités mises en avant par Mythos sur des modèles légers, peu coûteux et à poids ouvert, et a constaté qu'elle aboutissait à une analyse très similaire.

Devansh a finalement conclu que, même si les bugs qu'il a trouvés sont réels, la véritable histoire de Mythos est « une histoire de désinformation et de battage médiatique » .

Voilà qui remet en question la véracité de l' article sensationnaliste du New York Times mentionné plus haut. Cet article affirmait également que l'annonce du modèle « Mythos » était un signe de supériorité américaine.

« Pour la Chine, je pense qu'il s'agit du deuxième signal d'alarme après ChatGPT », a déclaré Matt Sheehan, chercheur principal à la Fondation Carnegie pour la paix internationale. Il a ajouté que la politique américaine visant à empêcher la Chine d'acquérir les semi-conducteurs les plus sophistiqués pour la construction de systèmes d'IA avancés contribuait à consolider l'avance des États-Unis.

Ahhh – ces fameux « semi-conducteurs ultra-sophistiqués »… comme si la Chine en avait besoin…

DeepSeek présente en avant-première un nouveau modèle d'IA adapté aux puces Huawei  Reuters

PÉKIN, 24 avril (Reuters) – DeepSeek, la start-up chinoise dont le modèle d'IA à bas coût a stupéfié le monde l'année dernière, a lancé vendredi un aperçu d'un nouveau modèle très attendu adapté à la technologie des puces Huawei, soulignant l'autosuffisance croissante de la Chine dans le secteur.

La version Pro du nouveau modèle surpasse les autres modèles open source dans les tests de connaissances mondiales, n'étant devancée que par le modèle propriétaire Gemini-Pro-3.1 de Google, a déclaré DeepSeek.

L'étroite collaboration avec Huawei sur le nouveau modèle, le V4, contraste avec la dépendance passée de DeepSeek aux puces Nvidia.

Dans certaines circonstances et cas d'utilisation bien définis, les modèles d'intelligence artificielle, y compris les LLM, sont rentables et utiles.

Mais le battage médiatique actuel et infondé autour des systèmes LLM, et leur (abus) pour créer des « déchets », risquent de retarder les applications plus utiles.

Aucun commentaire:

Enregistrer un commentaire

Les commentaires hors sujet, ou comportant des attaques personnelles ou des insultes seront supprimés. Les auteurs des écrits publiés en sont les seuls responsables. Leur contenu n'engage pas la responsabilité de ce blog ou de Hannibal Genséric. Les commentaires sont vérifiés avant publication, laquelle est différée de quelques heures.