Nouvelles:

Notre mission est de former les citoyens de référence de l'avenir, les aider à coévoluer et créer.

Main Menu
Welcome to Pratiquer les vertus citoyennes. Please login or sign up.

23 Novembre 2024, 12:23:09 PM

Login with username, password and session length

Crier !

jacquesloyal

2007-11-12, 17:03:07
Etre loyal et ne pas mentir

Récents

Membres
Stats
  • Total des messages: 6,856
  • Total des sujets: 4,053
  • En ligne aujourd'hui: 13
  • Record de connexion total: 448
  • (18 Mai 2024, 04:24:13 AM)
Membres en ligne
Membres: 0
Invités: 5
Total: 5

Des chercheurs en IA s’inquiètent de l’effondrement des modèles

Démarré par JacquesL, 12 Août 2024, 04:09:08 PM

« précédent - suivant »

JacquesL

Des chercheurs en IA s'inquiètent de l'effondrement des modèles


Publié le août 7, 2024 par Wayan


Par Evan Gorelick – Le 6 août 2024 – Bloomberg



Dans certains secteurs de l'industrie technologique, on croit fermement que l'entraînement des systèmes d'intelligence artificielle sur de plus grandes quantités de données en ligne permettra à ces outils de s'améliorer au fil du temps, au point de surpasser les humains dans l'exécution de certaines tâches.

Mais un nouvel article de recherche jette un doute sur cette approche et tire la sonnette d'alarme sur ce qui pourrait être une faille fatale dans la manière dont les systèmes d'intelligence artificielle sont développés. Dans cet article, publié par la revue Nature en juillet, les chercheurs constatent que lorsque les modèles d'IA sont entraînés sur des données comprenant du contenu généré par l'IA – ce qui sera probablement de plus en plus fréquent – ils finissent par voir leurs performances se dégrader, un phénomène appelé "effondrement du modèle".

Ces conclusions s'ajoutent au scepticisme croissant quant à la trajectoire à long terme de l'IA et interviennent à un moment où Wall Street se demande déjà si les investissements massifs des grandes entreprises technologiques dans le développement de l'IA finiront par porter leurs fruits.

Qu'est-ce que l'effondrement des modèles ?

Les chatbots d'IA tels que ChatGPT sont alimentés par de grands modèles de langage formés sur une quantité presque inconcevable de données (des milliers de milliards de mots, dans certains cas) tirées de pages web, d'articles, de sections de commentaires et plus encore. Grâce à ces vastes ensembles de données, les entreprises spécialisées dans l'IA ont pu créer des produits capables de fournir des réponses étonnamment pertinentes aux requêtes des utilisateurs.

Toutefois, certains observateurs de l'IA craignent que ces modèles finissent par perdre en précision et par s'effondrer s'ils sont entraînés sur des contenus générés par l'IA plutôt que par des êtres humains. Un article publié en 2023 sur l'effondrement des modèles a montré que les images d'humains produites par l'IA se déformaient de plus en plus après que le modèle ait été entraîné à nouveau sur "même de petites quantités de leur propre création". Les chercheurs ont comparé ce phénomène à un système d'IA "empoisonné" par son propre travail.

Quelles sont les conclusions du nouvel article ?

Dans le nouvel article de Nature, des chercheurs d'Oxford, de Cambridge et d'autres universités ont constaté que les modèles d'IA formés à partir de contenus générés par l'IA produisent des résultats non désirés et potentiellement absurdes. Comme l'expliquent les chercheurs, les erreurs d'un modèle sont exacerbées par le modèle suivant, ce qui éloigne l'IA de la réalité jusqu'à ce que les résultats deviennent essentiellement du charabia.

Dans un exemple, les auteurs ont montré qu'une recherche sur l'architecture historique britannique se transformait en une discussion incompréhensible sur les lièvres lorsqu'elle était introduite dans un grand modèle de langage qui avait été entraîné plusieurs fois avec du contenu généré par l'IA.

"Nous démontrons que [l'effondrement du modèle] doit être pris au sérieux si nous voulons conserver les avantages de la formation à partir de données à grande échelle extraites du web", écrivent les chercheurs dans l'étude.

Quelle est l'ampleur du risque d'effondrement du modèle ?

Bien que l'effondrement des modèles reste largement une préoccupation théorique, l'article de Nature note que les futurs modèles d'IA "s'entraîneront inévitablement à partir de données produites par leurs prédécesseurs", à mesure que les écrits et les images générés par l'IA se répandent sur le web et s'infiltrent dans les ensembles de données en ligne.

Des entreprises technologiques, dont Meta, Google et Anthropic, ont également expérimenté l'entraînement de modèles sur des données dites "synthétiques", qu'elles créent à l'aide de l'IA générative. En théorie, l'option synthétique permet aux entreprises d'IA de répondre à leur besoin incessant de données tout en évitant les problèmes juridiques, éthiques et de protection de la vie privée liés à la collecte d'informations sur divers sites web. Mais la perspective de l'effondrement du modèle pourrait mettre à mal ces projets.

Existe-t-il une solution ?

Les conclusions de l'article ne font que renforcer l'urgence pour les entreprises d'IA d'obtenir l'accès à des données de haute qualité générées par des êtres humains, mais cela peut s'avérer coûteux. OpenAI, le fabricant de ChatGPT, a dépensé des millions de dollars pour conclure des partenariats avec des éditeurs tels que News Corp. et Axel Springer SE afin d'obtenir la licence de leur contenu pour entraîner ses modèles. Il n'est pas certain non plus que ces données suffisent à répondre aux besoins des entreprises technologiques.

Selon les chercheurs, il est vital pour les développeurs d'IA de préserver l'accès à des données d'entraînement originales qui n'ont pas été polluées par du contenu d'IA. Mais il n'existe pas de moyen facile de suivre le contenu généré par l'IA à grande échelle. À cette fin, les chercheurs suggèrent que ceux qui élaborent des modèles d'IA travaillent à une "coordination à l'échelle de la communauté" afin de comprendre la provenance des données qu'ils explorent en ligne.

Evan Gorelick

Traduit par Wayan, relu par Hervé, pour le Saker Francophone.

https://lesakerfrancophone.fr/des-chercheurs-en-ia-sinquietent-de-leffondrement-des-modeles

JacquesL

Qu'est-ce que l'IA ? Illusions numériques, fausses promesses et rééducation de masse

Publié le août 26, 2024 par hervek
 

Par Brandon Smith − Le 10 Août 2024 − Source Alt-Market



Au cours des cinq dernières années, le concept d'intelligence artificielle a fait l'objet d'une grande fanfare, à tel point que sa primauté est considérée dans les médias comme une évidence. L'idée que les algorithmes peuvent "penser" est devenue un mythe omniprésent, un fantasme de science-fiction qui prend vie. La réalité est beaucoup moins impressionnante...

Les globalistes du Forum économique mondial et d'autres institutions élitistes nous répètent sans cesse que l'IA est le catalyseur de la "quatrième révolution industrielle", une singularité technologique censée changer à jamais tous les aspects de notre société. J'attends toujours le moment où l'IA fera quelque chose de significatif en termes d'avancement des connaissances humaines ou d'amélioration de nos vies. Ce moment n'arrive jamais. En fait, les globalistes ne cessent de déplacer les poteaux d'affichage de ce qu'est réellement l'IA.

Je note que les zélateurs du WEF comme Yuval Harari parlent de l'IA comme s'il s'agissait de l'avènement d'une divinité toute puissante (je discute du culte globaliste de l'IA dans mon article "Intelligence Artificielle : Un regard séculaire sur l'antéchrist numérique"). Pourtant, Harari a récemment minimisé l'importance de l'IA en tant qu'intelligence sensible. Il affirme qu'elle n'a pas besoin d'atteindre la conscience de soi pour être considérée comme un super être ou une entité vivante. Il suggère même que l'image populaire d'une IA de type Terminator dotée d'un pouvoir et d'un désir individuels n'est pas une attente légitime.



En d'autres termes, l'IA telle qu'elle existe aujourd'hui n'est rien de plus qu'un algorithme sans cervelle, et ce n'est donc pas de l'IA. Mais si tous les aspects de notre monde sont conçus autour d'infrastructures numériques et que l'on apprend à la population à avoir une foi aveugle dans l'"infaillibilité" des algorithmes, alors nous finirons par devenir les dieux robots que les globalistes appellent de leurs vœux. En d'autres termes, la domination de l'IA n'est possible que si tout le monde CROIT que l'IA est légitime. Harari admet essentiellement cet agenda dans le discours ci-dessus.

L'attrait de l'IA pour le commun des mortels réside dans la promesse de se libérer de tout souci ou de toute responsabilité. Comme tous les narcissiques, l'élite globaliste aime simuler l'avenir et acheter la conformité populaire en promettant des récompenses qui ne viendront jamais.

Oui, les algorithmes sont actuellement utilisés pour aider les profanes à faire des choses qu'ils ne pouvaient pas faire auparavant, comme construire des sites web, réviser des dissertations, tricher aux examens universitaires, créer de mauvaises œuvres d'art et du contenu vidéo, etc. Les applications utiles sont rares. Par exemple, l'affirmation selon laquelle l'IA "révolutionne" le diagnostic et le traitement médicaux est tirée par les cheveux. Les États-Unis, le pays qui a sans doute le plus accès aux outils d'IA, souffrent également d'une baisse de l'espérance de vie. Nous savons qu'il ne s'agit pas de la Covid, car le virus a un taux de survie moyen de 99,8 %. On pourrait penser que si l'IA est si puissante dans sa capacité à identifier et à traiter les maladies, l'Américain moyen vivrait plus longtemps.

Il n'existe aucune preuve d'un avantage unique de l'IA à une échelle sociale plus large. Tout au plus, il semble qu'elle permette de supprimer des emplois de développeurs web et d'employés de McDonald's au "Drive". L'idée globaliste selon laquelle l'IA va créer une renaissance robotique de l'art, de la musique, de la littérature et de la découverte scientifique est totalement absurde. L'IA s'est avérée n'être rien de plus qu'un outil de commodité médiocre, mais c'est en fait la raison pour laquelle elle est si dangereuse.

Je soupçonne le WEF d'avoir changé ses idées sur ce que l'IA devrait être parce qu'elle ne répond pas aux aspirations délirantes qu'il avait à l'origine pour elle. Ils attendaient qu'un logiciel prenne vie et commence à leur donner des informations sur les mécanismes de l'univers, et ils commencent à se rendre compte que cela n'arrivera jamais. Au lieu de cela, les élitistes se concentrent de plus en plus sur la fusion du monde humain et du monde numérique. Ils veulent fabriquer la nécessité de l'IA parce que la dépendance de l'homme à l'égard de la technologie sert les objectifs de la centralisation.

Mais à quoi cela ressemblerait-il en réalité ? Eh bien, il faut que la population continue à devenir plus stupide tandis que l'IA s'intègre de plus en plus à la société.

Par exemple, il est aujourd'hui largement admis qu'une formation universitaire n'est pas un gage d'intelligence ou de compétence. Des millions de diplômés entrant sur le marché du travail aujourd'hui font preuve d'un niveau d'incompétence déconcertant. Cela s'explique en partie par le fait que les enseignants sont moins compétents, qu'ils ont des préjugés idéologiques et que le programme d'études moyen s'est dégradé. Mais nous devons aussi commencer à prendre en compte le nombre d'enfants qui suivent leur scolarité en utilisant ChatGPT et d'autres outils de triche.

Ils n'ont pas besoin d'apprendre quoi que ce soit, l'algorithme et la caméra de leur téléphone portable font tout pour eux. Cette tendance est inquiétante, car les êtres humains ont tendance à emprunter le chemin le plus facile dans tous les aspects de la survie. La plupart des gens ont cessé d'apprendre à cultiver leur nourriture parce que l'agriculture industrielle le fait pour nous. Ils ont cessé d'apprendre à chasser parce qu'il y a des abattoirs et des camions frigorifiques. Aujourd'hui, de nombreux Zennials sont incapables de se faire à manger parce qu'ils peuvent recevoir des plats à emporter à leur porte à tout moment. Ils ne parlent presque plus au téléphone et ne créent plus de communautés physiques parce que les textos et les médias sociaux sont devenus les intermédiaires de l'interaction humaine.

Oui, tout est "plus facile", mais cela ne veut pas dire que tout est mieux.

Ma grande crainte – L'avenir que je vois se profiler est un avenir dans lequel les êtres humains ne prennent plus la peine de penser. L'IA pourrait être considérée comme l'ultime accumulation de connaissances humaines ; une bibliothèque massive ou un cerveau numérique qui effectue toutes les recherches et réfléchit à votre place. Pourquoi apprendre quoi que ce soit quand l'IA "sait tout" ? Mais c'est un mensonge.

L'IA ne sait pas tout ; elle ne sait que ce que ses programmeurs veulent qu'elle sache. Elle ne vous donne que les informations que ses programmeurs veulent que vous ayez. Les globalistes l'ont bien compris et ils sentent bien le pouvoir qu'ils auront si l'IA devient une plateforme éducative de premier plan. Ils y voient un moyen d'inciter les gens à abandonner le développement personnel et la pensée individuelle.

Voyez les choses sous cet angle : Si tout le monde commence à se tourner vers l'IA pour obtenir des réponses à toutes ses questions, alors tout le monde recevra exactement les mêmes réponses et arrivera exactement aux mêmes conclusions. Tout ce que l'IA a à faire, c'est de censurer activement toute information qui contredit le récit officiel.

Nous avons eu un aperçu de cette situation orwellienne lors de la pandémie de Covid, lorsque des entreprises de haute technologie comme Google ont utilisé des algorithmes pour enterrer toutes les données qui prouvaient que la crise Covid n'était pas la menace que les autorités gouvernementales prétendaient qu'elle représentait. Pendant au moins trois ans, il était impossible d'aller sur YouTube et de trouver des informations alternatives sur le virus ou les vaccins. L'algorithme a obligé tout le monde à passer au crible une longue liste de sources officielles, dont beaucoup véhiculent des mensonges flagrants sur le masquage, la distanciation sociale, le taux de mortalité dû à la crise Covid et la sécurité des vaccins.

Le pouvoir en place n'a même pas besoin de censurer ou de supprimer directement les informations qu'il n'aime pas. Il leur suffit de laisser l'algorithme dicter les résultats de recherche et d'enterrer la vérité à la page 10 000, là où personne ne la cherchera.

Quel serait l'impact sur le citoyen moyen ? Supposons que l'IA soit programmée pour dicter le discours scientifique. Que se passerait-il si l'IA disait que le changement climatique provoqué par l'homme est une réalité indéniable et que "la science est établie", sans jamais présenter la montagne de preuves contraires ? Personne ne cherchera les vraies données parce que l'IA les rendra impossibles à trouver. Tout le monde supposera que l'IA leur dit tout ce qu'il y a à savoir sur le sujet, mais il y a pire encore...



De nombreux lecteurs se souviendront peut-être qu'il y a quelques mois, le système d'IA "Gemini" de Google a été programmé pour imposer l'IED à ses utilisateurs. Chaque fois qu'une personne demandait à l'IA de créer une image historique, l'algorithme rendait tout le monde noir ou brun et souvent féminin. Les représentations d'hommes blancs étaient étrangement rares, malgré l'exactitude historique. Cela signifie des images sans fin de Highlanders noirs et bruns en Écosse, de Pères fondateurs noirs en Amérique, de papes catholiques féminins, de chevaliers asiatiques dans l'Europe médiévale, et même, ce qui est hilarant, de nazis noirs dans l'Allemagne de la Seconde Guerre mondiale.

Les développeurs d'IA affirment souvent qu'une fois l'IA créée, ils ne contrôlent plus vraiment ce qu'elle fait et comment elle se développe. L'incident "Gemini" prouve que c'est un mensonge. L'IA peut définitivement être contrôlée, ou du moins modelée par le codage pour promouvoir la propagande que les programmeurs veulent qu'elle promeuve. Il n'existe pas d'IA autonome ; il y a toujours un agenda.

En résumé, les globalistes souhaitent la prolifération de l'IA parce qu'ils savent que les gens sont paresseux et qu'ils utiliseront le système comme substitut à la recherche individuelle. Si cela se produit à grande échelle, l'IA pourrait être utilisée pour réécrire tous les aspects de l'histoire, corrompre les racines mêmes de la science et des mathématiques et transformer la population en un esprit de ruche baveux ; une écume bourdonnante de drones décérébrés consommant chaque proclamation de l'algorithme comme si elle était sacro-sainte.

En ce sens, Yuval Harari a raison. L'IA n'a pas besoin de devenir sensible ou d'utiliser une armée de robots tueurs pour faire beaucoup de mal à l'humanité. Il lui suffit d'être suffisamment pratique pour que nous n'ayons plus envie de penser par nous-mêmes. Comme le "Grand et Puissant" OZ qui se cache derrière un rideau numérique, vous pensez acquérir des connaissances auprès d'un magicien alors que vous êtes en réalité mani
pulés par des vendeurs d'huile de serpent globalistes.

Brandon Smith

Traduit par Hervé pour le Saker Francophone

https://lesakerfrancophone.fr/quest-ce-que-lia-illusions-numeriques-fausses-promesses-et-reeducation-de-masse