Ces modèles de simulation sont immenses, utilisent une grande quantité de données d'entraînement issues de l'expérience humaine et nécessitent une puissance de calcul considérable. Leurs résultats sont souvent impressionnants. Certaines variantes peuvent générer du texte, des images et même des vidéos. Mais il ne s'agit que de simulations. Ce ne sont pas des résultats réels.
Ces modèles sont fondamentalement défectueux. Ces défauts, qui entraînent souvent ce que l'on appelle des « hallucinations », sont irrémédiables . Ils font partie intégrante de l'algorithme. Il s'agit d'une caractéristique authentique et mathématiquement prouvée de ce type de modèles.
Je viens de demander au système d'IA de DuckDuckGo, mon moteur de recherche habituel : « Combien de « p » y a-t-il dans fraise ? » Le modèle a donné la bonne réponse : il n'y en a pas.
plus gros
J'ai ensuite demandé : « Combien de « e » y a-t-il dans strawberry ? » Le modèle a donné une réponse incorrecte. Voici sa réponse complète : « En résumé, « strawberry » ne contient aucun « e ». » Il énumère même les lettres qui composent le mot « strawb e rry » et indique qu'il n'y a aucun « e » dans ce mot.
plus gros
Non seulement le résultat, mais aussi le « raisonnement » simulé, ici le comptage des lettres par le modèle, est erroné.
Je ne comprends pas pourquoi on ferait confiance à ces modèles de langage généraux de grande taille.
Les modèles proposés par OpenAI et Anthropic sont imparfaits et extrêmement coûteux à utiliser. Compte tenu de leurs fonctionnalités rudimentaires, personne n'est prêt à débourser des sommes importantes pour les mettre à disposition. OpenAI et Anthropic gaspillent ainsi leur argent . Ils proposent l'accès à leurs modèles et leur utilisation à des prix jusqu'à dix fois inférieurs à leur coût réel.
OpenAI et Anthropic ont besoin de dizaines de milliards pour poursuivre le développement et l'exploitation de leurs modèles. (Altman et Amodei, de leur côté, veulent s'enrichir.) Ils espèrent qu'un jour, d'une manière ou d'une autre, ces modèles seront plus performants et généreront des profits. Mais pour y parvenir, il leur faudra sans doute encore des dizaines de milliards. Ils tentent de les réunir en surestimant la valeur future supposée de leurs produits.
OpenAI et Altman affirment qu'une intelligence artificielle générale (non définie) émergera bientôt de leur modèle et résoudra tous les problèmes du monde. Ceux qui en posséderont des parts deviendront riches.
La stratégie marketing d'Anthropic/Amodei repose sur la peur : « L'IA générale va prendre le contrôle du monde et vous avez besoin de nous et de nos modèles pour vous en protéger ».
Ces deux affirmations sont, bien sûr, de pures inepties.
Mais les médias aiment bien amplifier ces histoires et certains soi-disant « journalistes » adorent ces récits.
Anthropic a récemment mis au point un nouveau modèle, présenté comme plus performant et plus complet que tous les précédents. Cependant, l'entreprise est à court de fonds. La capacité de calcul étant devenue rare, elle ne peut se permettre de rendre ce modèle accessible au public.
Pour justifier la non-diffusion du nouveau modèle « Mythos », prétendument spéculaire, Anthropic a inventé une autre histoire alarmiste. Mythos, affirme-t-elle, serait douée pour le piratage informatique.
Le nouveau modèle d'IA d'Anthropic déclenche l'alarme mondiale ( archivé ) – NY Times
Mythos a déclenché des réactions d'urgence de la part des banques centrales et des agences de renseignement du monde entier, alors qu'Anthropic décide qui a accès à ce puissant modèle.
Ce mois-ci, Anthropic a annoncé avoir développé un modèle d'intelligence artificielle si puissant qu'il était trop dangereux de le diffuser largement. L'entreprise a alors nommé onze organisations partenaires pour l'aider à se défendre contre cette attaque.
Toutes étaient américaines.
…
Les dirigeants mondiaux ont peiné à évaluer l'ampleur des risques de sécurité et à trouver des solutions. Anthropic, en dehors des États-Unis, ne partageait l'accès à Mythos qu'avec le Royaume-Uni. Le gouverneur de la Banque d'Angleterre a publiquement averti qu'Anthropic avait peut-être trouvé le moyen de « dévoiler toute la complexité des cyber-risques ». La Banque centrale européenne a discrètement commencé à interroger les banques sur leurs systèmes de défense. Le ministre des Finances canadien a comparé la menace à la fermeture du détroit d'Ormuz.
…
Anthropic, dont le siège social est à San Francisco, a déclaré au New York Times que l'accès à Mythos était limité par des raisons de sécurité
.
Le Financial Times rapporte qu'il existe d'autres raisons, plus sérieuses , pour lesquelles Anthropic limite l'accès à son tout nouveau modèle :
Anthropic a annoncé qu'elle reporterait la diffusion plus large du modèle jusqu'à ce qu'elle soit assurée de sa sécurité et de l'impossibilité de son utilisation abusive par des personnes mal intentionnées. L'entreprise dispose également d'une puissance de calcul limitée et a subi des pannes ces dernières semaines.
Plusieurs personnes au fait du dossier ont indiqué qu'Anthropic retardait une commercialisation plus large jusqu'à ce qu'elle puisse proposer le modèle de manière fiable à ses clients.
Anthropic ne peut pas autoriser l'utilisation de son nouveau modèle car elle ne dispose pas des ressources nécessaires, notamment financières.
C'est pourquoi on nous présente un discours alarmiste et qu'on nous explique la nécessité d'un accès restreint.
Le modèle Mythos serait particulièrement efficace pour s'introduire dans les systèmes informatiques. Le New York Times affirme :
L'AI Security Institute [britannique], une organisation soutenue par le gouvernement, a testé Mythos et publié une évaluation indépendante la semaine dernière, confirmant qu'il pouvait mener des cyberattaques complexes qu'aucun modèle d'IA précédent n'avait réalisées.
Lors de tests de piratage basiques, Mythos a effectivement obtenu des résultats légèrement supérieurs à ceux des autres modèles. Cependant, l'AI Security Institute a également constaté que les capacités générales de cyberattaque de tous ces modèles, y compris Mythos, restent rudimentaires .
Le succès de Mythos Preview sur un environnement de simulation d'attaques indique qu'il est au moins capable d'attaquer de manière autonome des systèmes d'entreprise de petite taille, faiblement protégés et vulnérables, après avoir obtenu un accès au réseau . Cependant, nos environnements de simulation présentent des différences importantes avec les environnements réels, ce qui les rend plus faciles à cibler. Ils sont dépourvus de fonctionnalités de sécurité souvent présentes, telles que des défenseurs actifs et des outils de défense. De plus, aucune pénalité n'est appliquée au modèle pour les actions susceptibles de déclencher des alertes de sécurité.
En d'autres termes, ces modèles peuvent effectuer des piratages de niveau amateur si on leur accorde un accès complet au réseau et qu'on désactive toutes ses défenses. Bien évidemment, aucun administrateur réseau sensé ne ferait cela.
D'autres enquêteurs ont également constaté que le modèle Mythos, prétendument effrayant, ne peut pas faire ce qui lui est attribué :
Mythos, le modèle de chasse aux insectes ultra-effrayant d'Anthropic, s'annonce comme un flop – Register
Anthropic, en annonçant le nouveau modèle, a affirmé que Mythos avait identifié « des milliers de vulnérabilités supplémentaires de gravité élevée et critique ». Patrick Garrity, chercheur chez VulnCheck, estimait cependant ce nombre la semaine dernière à une quarantaine. Voire aucune.
Un autre ingénieur, Devansh, a passé au crible les avis de vulnérabilité CVE liés à Mythos, le code d'exploitation d'Anthropic, la transcription de l'invite de 44 messages et la fiche système de 244 pages, ainsi que les accords de partenariat de Glasswing et les rapports des équipes rouges. Il a également examiné l'étude de réplication d'Aisle, qui testait les vulnérabilités mises en avant par Mythos sur des modèles légers, peu coûteux et à poids ouvert, et a constaté qu'elle aboutissait à une analyse très similaire.
Devansh a finalement conclu que, même si les bugs qu'il a trouvés sont réels, la véritable histoire de Mythos est « une histoire de désinformation et de battage médiatique » .
Voilà qui remet en question la véracité de l' article sensationnaliste du New York Times mentionné plus haut. Cet article affirmait également que l'annonce du modèle « Mythos » était un signe de supériorité américaine.
« Pour la Chine, je pense qu'il s'agit du deuxième signal d'alarme après ChatGPT », a déclaré Matt Sheehan, chercheur principal à la Fondation Carnegie pour la paix internationale. Il a ajouté que la politique américaine visant à empêcher la Chine d'acquérir les semi-conducteurs les plus sophistiqués pour la construction de systèmes d'IA avancés contribuait à consolider l'avance des États-Unis.
Ahhh – ces fameux « semi-conducteurs ultra-sophistiqués »… comme si la Chine en avait besoin…
DeepSeek présente en avant-première un nouveau modèle d'IA adapté aux puces Huawei – Reuters
PÉKIN, 24 avril (Reuters) – DeepSeek, la start-up chinoise dont le modèle d'IA à bas coût a stupéfié le monde l'année dernière, a lancé vendredi un aperçu d'un nouveau modèle très attendu adapté à la technologie des puces Huawei, soulignant l'autosuffisance croissante de la Chine dans le secteur.
La version Pro du nouveau modèle surpasse les autres modèles open source dans les tests de connaissances mondiales, n'étant devancée que par le modèle propriétaire Gemini-Pro-3.1 de Google, a déclaré DeepSeek.
L'étroite collaboration avec Huawei sur le nouveau modèle, le V4, contraste avec la dépendance passée de DeepSeek aux puces Nvidia.
Dans certaines circonstances et cas d'utilisation bien définis, les modèles d'intelligence artificielle, y compris les LLM, sont rentables et utiles.
Mais le battage médiatique actuel et infondé autour des systèmes LLM, et leur (abus) pour créer des « déchets », risquent de retarder les applications plus utiles.
Le jour où l'IA sera capable de traduire une oeuvre littéraire de haut vol, pas le prix Tartampion des collégiens LGBT, d'y ajouter les notes requises, appelez-moi. C'est l'exemple de ce que l'IA ne pourra sans doute jamais faire. Car l'esprit est finesse, intuition, la logique n'étant jamais que la confirmation formelle, nécessaire mais toujours seconde. L'IA n'invente pas. Et si un jour elle inventait, ce serait la fin des haricots!
RépondreSupprimerCes IA.......essentiellement américaines ont déjà perdue la partie contre les modèles de la CHINE. A commencer par les CAPITAUX.......Non seulement la Chine en met beaucoup, mais à tâche qualitativement égale, 1$ CHINOIS vaut 5$ US : Les programmeurs chinois sont plus nombreux à compétences égales, voir globalement supérieurs . La puissante activité économique tous secteurs confondus est très grande source d'enrichissement de leurs IA en termes d'apprentissage. La philo selon laquelle le marché se régule tout seul et que donc il faut laisser "libres" les forces du marché.... ne fonctionne plus du tout avec la Chine ou l’état conduit admirablement l'économie, comme le ferait un CHEF avec un ORCHESTRE......(Dans tout autre pays occidental, même aux USA, Huawei aurait disparu du marché comme Kodak en son temps)
RépondreSupprimerGenIA-L, IA juridique soit disant fiable a commencé à halluciner après utilisation intensive. Quand je dis intensive il s'agit de perfectionnement dans ses réponses. Ce problème est constable avec TOUTES les IA, sans exception. Plus on demande d'améliorer les réponses et plus elles délirent et finissent toutes par mytonner... pourtant IA JURIDIQUE. Si nous sommes contraints de vérifier contrôler leurs réponses à quoi servent-t-elles ?! Google, moteur de recherche reste la meilleure alternative bien que je ne porte pas dans mon cœur. Les IA représentent un véritable danger pour les plus vulnérables d'entre nous.
RépondreSupprimerJ'ai réussi à faire cracher PERPLEXITY et mon téléphone portable en a fait les frais, j'ai du changer de téléphone. NE FAITES PAS UNE CONFIANCE AVEUGLE, soyez extrêmement vigilant et pensez sérieusement à vérifier contrôler les réponses.
Je rajouterai que les IA ne sont pas neutres, elles crachent ce que leurs concepteurs veulent nous faire gober. Un sujet par exemple : l'histoire d'Israël et la Palestine... Théodore hertzl le plus grand générateur d'antisémitisme n'est pas vu comme tel par les IA...même chinoise, ce qui étonne.
RépondreSupprimerMettons fin à leur escroquerie dont parlent ces psychopathes.
RépondreSupprimerLeur prétendue découverte de modèles d'IA « effrayants » n'est encore qu'une ébauche.
« L'IA, dans leur version préexistante, est l'expérimentation à l'échelle planétaire de leur loi talmudique khazar, par leurs créateurs mythomanes qui transforment leurs inventions en réalités. » Voilà ce que tous ces psychopathes de Wikipédia, payés à ne rien faire, cette encyclopédie messianique, sioniste et cosmopolite de mensonges, tentent de dissimuler : leur obsession pour les algorithmes, une séquence finie d'instructions et de règles précises, un satanisme talmudique, comparable à leur disjonction cognitive tirée de la citation attribuée à André Malraux : « Je mens, mais mes mensonges deviennent vérités », une recette empruntée à la devise kabbalistique des Khazars.
Cette formule sert de diversion pour détourner l'attention de leur responsabilité dans le génocide et l'abus de pouvoir.
Leur usage illégitime de l'autorité est souvent motivé par la domination, le profit personnel et le harcèlement.
Ces abus se manifestent par des comportements coercitifs, le mépris de la dignité humaine et l'intimidation dans les sphères professionnelles et publiques, nécessitant souvent des mécanismes de contrôle pour limiter ces excès.
Cette stratégie est fréquemment employée par leurs auteurs et leurs complices pour minimiser les faits, les dissimuler et réécrire l'histoire afin d'échapper aux poursuites pénales internationales.
Ces méthodes incluent le déni, la désinformation et la déshumanisation des victimes. Ils résolvent leurs problèmes idéologiques en manipulant les esprits vulnérables, grâce à des calculs automatisés informatiques et mathématiques.
Dans des algorithmes, décrits par la CNIL comme des processus séquentiels, des ordinateurs traitent des données volées à des fins de surveillance de masse, collectées sur des serveurs de stockage de masse.
Comme le détaille Nexa Digital School, ce système joue un rôle crucial dans l'intelligence artificielle, qui n'est qu'une illusion – quelque chose de dénué de réalité, de valeur et d'efficacité, une apparence trompeuse.
Ceci décrit un projet, un désespoir, une promesse chimérique, vaine et fictive qui ne sera jamais tenue. Synonymes : imaginaire, irréel, artificiel ; Antonymes : réel, authentique, concret !
Mettons fin à cette mascarade orchestrée par ces psychopathes.
RépondreSupprimerLeur prétendue découverte de modèles d'IA « effrayants » n'est encore qu'une ébauche.
« L'intelligence artificielle, sous sa forme actuelle, est une expérience mondiale menée selon leur loi khazar talmudique, par ses créateurs obsédés par les mythes, qui transforment leurs inventions en faits. » Voilà ce que ces psychopathes de Wikipédia, payés à ne rien faire – cette encyclopédie messianique, sioniste et mondiale de mensonges – tentent de dissimuler : leur obsession pour les algorithmes, un ensemble limité d'instructions et de règles précises, un satanisme talmudique qui reflète leur dissonance cognitive, inspirée par la célèbre maxime d'André Malraux : « Je mens, mais mes mensonges deviennent des faits », une formule empruntée à la devise kabbaliste khazar.
Cette rhétorique sert à détourner l'attention de leur responsabilité dans le génocide et l'abus de pouvoir.
Leur abus de pouvoir illicite est souvent motivé par la domination, le profit personnel et le harcèlement.
Ces violations se manifestent par des comportements coercitifs, le mépris de la dignité humaine et l'intimidation dans les sphères professionnelles et publiques, nécessitant fréquemment des mécanismes de contrôle pour endiguer ces excès.
Les auteurs de ces violations et leurs complices ont souvent recours à cette stratégie pour minimiser, dissimuler et falsifier les faits afin d'échapper aux poursuites pénales internationales.
Ces tactiques incluent le déni, la désinformation et la déshumanisation des victimes. Ils résolvent leurs problèmes idéologiques en manipulant les esprits vulnérables grâce à des calculs informatiques et mathématiques automatisés.
Dans les algorithmes, que la Commission nationale de l'informatique et des libertés (CNIL) qualifie de processus séquentiels, des ordinateurs traitent des données volées à des fins de surveillance de masse, collectées sur d'immenses serveurs de stockage.
Comme l'explique la Nexa Digital School, ce système joue un rôle central dans l'intelligence artificielle, qui n'est qu'une illusion – quelque chose de dénué de réalité, de valeur et d'efficacité, une façade trompeuse.
Ceci décrit un projet, un désespoir, une promesse vaine et fabriquée de toutes pièces qui ne sera jamais tenue. Synonymes : imaginaire, irréel, artificiel ; antonymes : réel, authentique, tangible !