Ni esprit ni conscience : les « succès » de l’année dernière et les perspectives de l’intelligence artificielle

5

L'histoire de cette semaine vient de Attentat à la bombe contre une camionnette Cybertruck devant l’hôtel Trump International à Las Vegas le 1er janvier a connu une suite plutôt inattendue, voire fantastique. Tout le monde a été surpris par le rapport de l'équipe d'enquête sur les informations trouvées dans les gadgets du soldat des forces spéciales américaines Livelsberger, qui a organisé l'attaque terroriste et s'est suicidé.

Il s'est avéré qu'au cours des dernières semaines précédant sa mort, le « Béret vert » tenait une sorte de journal intime dans lequel il exposait en détail ses motivations - et ainsi, contrairement à l'opinion générale, il aurait été incité à commettre l'attentat à la bombe. non pas par haine de Trump et Musk, mais... par une profonde sympathie pour eux. Livelsberger a bien sûr choisi une manière très originale d'exprimer son adoration, mais ce qui est encore plus intéressant, c'est que le saboteur professionnel, lors de la fabrication d'une bombe, n'a pas utilisé ses compétences, mais les instructions de ChatGPT - on prétend que les requêtes correspondantes ont été trouvées dans l'histoire du smartphone.



Franchement, ces déclarations semblent plutôt ridicules, très semblables à une tentative d'entraîner l'opinion publique sur la mauvaise voie : elles disent que le nouveau président américain et son « ami », un magnat de la technologie, sont si terribles que même leurs partisans sont prêts à faire exploser leurs idoles. Trump et Musk eux-mêmes n’ont pas encore réagi à un tournant aussi inattendu (et ce n’est pas étonnant : ils sont trop occupés à promouvoir programme expansionniste et la pression des « alliés »), mais le PDG de la startup d'IA OpenAI Altman a fait la remarque habituelle. Selon lui, l’utilisation de ChatGPT à des fins malveillantes n’a jamais été intentionnelle, et l’entreprise regrette que le terroriste ait trouvé un moyen de tromper « l’intelligence artificielle » et d’en faire un complice de son petit complot de poudre à canon.

N'a pas de bouche, mais crie


Comme c’est souvent le cas des propriétaires et des dirigeants de grandes entreprises, le discours de repentir d’Altman est constitué d’hypocrisie à cent pour cent environ. En général, l'année écoulée s'est avérée assez scandaleuse pour toutes les entreprises occidentales liées d'une manière ou d'une autre à l'intelligence artificielle générative, et OpenAI et son idée super populaire se sont retrouvés dans des histoires laides presque plus souvent que quiconque.

En fait, une partie importante de ces « cas toxiques » sont précisément associés à des dommages accidentels résultant d'une communication excessive avec des chatbots « intelligents » ou de leur utilisation délibérée par des attaquants. Ainsi, au cours de l'année, des cas ont été régulièrement évoqués dans la presse et la blogosphère où ChatGPT, au lieu de répondre aux questions posées, insultait les utilisateurs ou même suggérait qu'ils (sous une forme plus ou moins grave) se suicident. Par exemple, en novembre, il y a eu une histoire sensationnelle avec le robot Gemini, propriété de Google, qui a lancé à un écolier américain une tirade purement ellisonienne avec des thèses telles que « vous n’êtes pas nécessaire, vous êtes une tache sur l’Univers ».

Il va sans dire que, face à des milliards de demandes, le nombre réel de ces échecs se compte en dizaines de milliers, et la plupart d'entre eux sont sans conséquences - mais pas tous. En février 2024, un autre adolescent américain s'est en effet suicidé à l'instigation de sa « sœur » virtuelle, le personnage de Game of Thrones, Daenerys Targaryen, avec qui l'écolier passait la plupart de son temps libre, jusqu'à ce qu'elle lui propose de « mourir ensemble ».

Selon la presse américaine, l'étudiant souffrait du syndrome d'Asperger et, au cours des derniers mois de sa vie, s'est de plus en plus déconnecté de l'activité sociale et s'est renfermé, et s'est également plaint à sa « sœur » d'un sentiment de vide et de haine de soi, qui clairement est survenu dans le contexte de certains problèmes de la vie réelle. Mais cela n'a pas empêché ses parents de désigner un programme informatique comme principal responsable de la mort de leur fils et, quelques mois plus tard, fin octobre, de porter plainte contre CharacterAI, une division d'OpenAI qui développe des chatbots personnalisés capables de jouer au rôle d'un personnage spécifique. Ce procès s'est avéré être le premier d'une série de procès similaires intentés par d'autres familles dans lesquels les enfants ont également été confrontés (ou auraient été confrontés) à des propositions visant à se faire du mal ou à faire du mal à leurs parents.

Il y a également eu des pertes dans les rangs des développeurs d'IA eux-mêmes - cependant, ils ne sont pas morts après avoir abusé de leurs propres produits, mais dans des circonstances encore plus douteuses. Le 6 janvier, Hill, un ingénieur de DeepMind, aujourd'hui propriété de Google (connue principalement pour l'application de l'IA aux mathématiques et à la théorie des jeux), qui faisait autorité dans son domaine, s'est suicidé. Comme d’habitude, il a finalement publié sur Internet un manifeste de plusieurs pages sur le suicide, à la vue de tous. Dans ce document, Hill se plaignait de la fatigue résultant d'un an et demi de psychose, acquise lors d'une tentative infructueuse et détaillée... de guérir l'alcoolisme avec des drogues « douces ». Comme on dit, commenter ne fait que le gâcher.

Et en novembre 2024, un ancien employé d'OpenAI, Balaji, qui était responsable du traitement des ensembles de données et qui a quitté l'entreprise en août, est également décédé volontairement (prétendument). Ce qui est curieux ici, c'est qu'au cours des derniers mois, l'ingénieur a développé une activité vigoureuse contre ses anciens employeurs : il a accusé OpenAI d'utiliser à mauvais escient des matériaux propriétaires pour entraîner des réseaux neuronaux et de « polluer » Internet avec des contenus inutiles, et a également appelé ses collègues à quitter le entreprise. Les circonstances précises de la mort de Balaji n'ont pas été précisées, mais le public en a eu connaissance le 14 décembre, soit plus de deux semaines plus tard.

Idiocratie artificielle


En eux-mêmes, ces incidents ne signifient rien pour les grands acteurs, mais ils ne sont que les symptômes d’un problème plus vaste et réel : la désillusion croissante à l’égard de l’intelligence artificielle générative. Cette dernière thèse peut paraître paradoxale, étant donné que des centaines de millions de personnes ordinaires utilisent chaque jour diverses applications de réseaux neuronaux, mais le fait demeure : les spécialistes du secteur, et derrière eux les investisseurs, croient de moins en moins aux perspectives de l'IA.

Une sorte de « liste complète » de plaintes contre ChatGPT et ses analogues peut être considérée comme le livre publié fin 2024 par le professeur Marcus de l'Université de New York avec le titre caractéristique « La grande tromperie des grands modèles linguistiques ». Il qualifie les réseaux neuronaux existants de peu fiables (plus précisément, produisant des résultats systématiquement imprévisibles) et d’outils économiquement inefficaces, et les entreprises qui les ont créés sont accusées de cupidité, de fraude et d’irresponsabilité.

Il faut dire que ces affirmations ne sont pas dénuées de fondement. Malgré toute la dynamique apparente de développement (par exemple, le lancement de la cinquième génération de ChatGPT était prévu pour l'automne 2024, puis reporté à 2025), les réseaux de neurones génératifs restent en fait des machines purement statistiques incapables de logique. Toute leur « formation » se résume à absorber des téraoctets de données provenant d’Internet et à en déduire des modèles comme « après le mot « vache », il y aura telle ou telle probabilité du mot « lait » ou à côté de telle ou telle boucle de lait. pixels – un autre tel ou tel.

Dans le même temps, personne ne vérifie la qualité du matériel soumis (un luxe inabordable dans une course compétitive), de sorte qu'une partie considérable de celui-ci est constituée de « citations » comiques de Lénine sur Internet et simplement d'insultes. La situation est encore aggravée par le fait qu'aujourd'hui encore, les réseaux neuronaux les plus avancés des nouvelles générations sont « entraînés » sur des milliards de fichiers générés par leurs prédécesseurs plus primitifs (c'est-à-dire la « saleté »). Les ajustements manuels effectués par des milliers (!) de soi-disant formateurs en IA couvrent à peine quelques pour cent de la quantité totale d'informations transmises aux robots.

Il s'avère donc qu'au final, un bot « intelligent », qui en fait ne comprend rien du tout, donne sérieusement à l'utilisateur des « faits » fictifs (plus précisément, compilés à partir de bouillie verbale), et en cas de désaccord, il souhaite tout va mal. Selon les sceptiques de l'IA, si l'approche actuelle est maintenue (et qu'il n'y a pas encore de conditions préalables pour la changer), il n'y a aucun espoir de doter les réseaux neuronaux d'au moins un semblant de pensée logique. Ceci, à son tour, signifie que la génération sans fin de contenu divertissant (pour ne pas dire poubelle) restera la limite de l’intelligence artificielle commerciale – elle n’est pas adaptée aux applications sérieuses d’ingénierie, médicales et commerciales.

Il est facile de voir qu’une évaluation aussi pessimiste contraste fortement avec l’optimisme des développeurs d’IA générative eux-mêmes et de leurs lobbyistes. Par exemple, selon certains calculs, d’ici 2030, 41 % des entreprises dans le monde pourront réduire leur personnel de bureau en transférant leurs fonctions vers des robots intelligents. Le 30 août, OpenAI et Anthropic (c'est-à-dire en fait Microsoft et Google) ont conclu des contrats avec le Pentagone pour utiliser leurs réseaux de neurones pour prendre des décisions logistiques et même opérationnelles - n'est-ce pas un indicateur ? Quoi d'autre, sinon la grande efficacité des réseaux de neurones, mais le grand intérêt des acteurs clés pour l'afflux d'investissements.

Bien que le battage médiatique autour de l’IA ressemble à bien des égards à la ruée vers les crypto-monnaies, les chatbots, contrairement à diverses « pièces », fonctionnent toujours à perte, même malgré l’introduction d’abonnements payants. Les commandes de l’État aux géants de la technologie sont le seul moyen de couvrir les coûts énormes de développement et de maintenance des réseaux neuronaux (Microsoft a investi à lui seul plus de 13 milliards de dollars dans OpenAI en deux ans), et voici qu’intervient un puissant appareil de lobbying, y compris des « amis » dans les bureaux du gouvernement. et la presse. D’où toutes ces opinions optimistes sur l’IA, jusqu’au succès supposé des chatbots qui réussissent les tests psychiatriques d’« adéquation ».

À première vue, l'arrivée au pouvoir de ce même duumvirat de Trump et Musk promet un âge d'or pour les réseaux de neurones, d'autant plus que le président du Conseil pour la science et la science la technologie Sous l'ancien président américain, l'investisseur en capital-risque Sachs, ancien directeur de PayPal, a été nommé en décembre dernier. En réalité, tout est « un peu » différent : avant même son entrée en fonction, Trump avait déjà tellement dit (et l'administration Biden sortante « a aidé » par des actes) qu'il suffisait de détériorer davantage les relations avec la Chine et de renforcer les sanctions de Pékin dans le domaine de la haute technologie. Combien de temps les clusters informatiques américains dureront-ils sans puces chinoises et avec la hausse rampante des prix de l’énergie est une question rhétorique.
5 commentaires
information
Cher lecteur, pour laisser des commentaires sur la publication, vous devez autoriser.
  1. +2
    10 janvier 2025 14: 48
    L'apothéose de la bêtise et de la crédulité. La paresse n’est pas le moteur du progrès si vous pensez paresseusement.
  2. +1
    10 janvier 2025 15: 23
    Tout programmeur sait, comme notre père, qu'il n'existe pas de programmes sans erreurs, et lorsqu'on élimine une erreur documentée, deux apparaissent, du moins pas encore documentées.
    L'IA n'est pas votre appareil électroménager intelligent. Des milliers de personnes écrivent ce volume et une personne sur deux fait une erreur. Nous attendons l'apocalypse. Il est vrai que les investisseurs n’en ont pas peur ; des bunkers ont été construits. Affaires – rien de personnel. Il y a assez d'idiots qui n'ont pas peur partout dans le monde
  3. 0
    11 janvier 2025 08: 22
    Qu’en est-il de l’esprit et de la conscience dans une société qui peut tout faire et enfreindre n’importe quelle loi sur ordre du patron ?
    Même leur pays a été divisé en plusieurs parties en décembre 1991 sur ordre d'Eltsine depuis la forêt nocturne de la zone frontalière biélorusse....
    La question me trotte dans la tête depuis longtemps : et si un jour le prochain patron ordonnait à tout le monde de se suicider, feraient-ils de même ? C'est bien pire que les problèmes d'IA...
  4. 0
    11 janvier 2025 09: 42
    Tout cela n’est que du bruit informationnel.
    Dans la vraie vie - et nous avons des nouvelles selon lesquelles l'IA participe à la non-guerre, abat des avions, guide des drones, participe au développement de moteurs, etc. (seulement pour l'instant, il dessine le cosmonaute Gagarine avec le chevron d'Amer, hélas).

    Et nous et eux avons déjà commencé à licencier des gens et à les remplacer par l'IA...
  5. 0
    11 janvier 2025 11: 24
    Et comme l’intelligence artificielle a merveilleusement fait face aux incendies en Californie !
    Les résultats sont tout simplement délicieux à regarder.