COMPTOIR
  
register

OpenAI coupe AI classifier : vers un réel moratoire éthique ?

Et ça s'est passé à la maison blanche, sous la houlette de l'administration Biden-Harris. Portée par sept acteurs majeurs de l'IA étazunienne — Amazon, Microsoft, OpenAI, Anthropic, Google, Inflection, Meta ; ça ne fait pas bezef' au regard du nombre d'entreprises travaillant sur le sujet —, la promesse globale est l'augmentation significative des financements pour réguler l'IA et la rendre la plus neutre possible : on parle de biais algorithmique. Voilà qui a conduit hier quatre des acteurs suscités a fonder Frontier Model Forum, une organisation ayant pour but la promotion du « développement responsable » des modèles d'AI.

Et ça ne serait pas vraiment un luxe, puisqu'un ChatGPT pour ne pas le citer, n'étant par essence qu'un super perroquet algorithmique bien élevé, n'invente rien et se contente de retranscrire avec un enrobage plutôt aseptisé. Mais il retranscrit ce que sa base de données lui permet de faire, et cette base de données, c'est internet. Autrement dit l'endroit qui n'est pas le plus neutre du monde, à l'image de ses utilisateurs. Bien sûr avec un apprentissage de plus en plus sophistiqué, et un nombre de paramètres de plus en plus hallucinant demandant de plus en plus d'infras réseaux, les résultats sont voués à progresser dans un futur proche, limitant de facto les conneries stratosphériques que l'IA est capable de vous sortir.

 

non non nonUne éthique ? Non, non, non !

 

Des investissements devront être concentrés également sur l'aspect cybersécurité. Et surtout, surtout, des investissements massifs sur le tatouage des contenus générés par IA, à l'image à titre de comparaison du CAI initié entre autres par Adobe. Pour des raisons de droits d'auteurs bien sûr, mais il serait bon aussi d'éviter au mieux les écrits auto générés soit pour plaire — une IA pour goinfrer une autre IA, on est bien des humains stupides et cupides — comme on commence à en voir fleurir plus ou moins discrètement y compris dans notre secteur du hardware, discréditant des pans entiers de métiers au passage, et avec malgré tout une finalité visant soit à faire de la thune, soit à manipuler les opinions en distribuant une vision du monde au détriment des faits. Rien de bien nouveau en soit, mais avec ce genre d'outil cela est simplement rendu applicable à grande échelle de manière bien facilitée, à coûts réduits de surcroit. Même sur le Comptoir, on commence à voir fleurir des SPAMs dans les ragots générés à coups d'IA...

 

openai ai classifier for indicating ai written text

AI Classifier tout en logo

 

Dans ce contexte, AI classifier, l'outil de détection de contenus générés par IA d'OpenAI, dont la précision selon son papa ne serait que de seulement 26 %, vient d'être clôturé, en tout cas temporairement : « À partir du 20 juillet 2023, lA Classifier n'est plus disponible en raison de son faible taux de précision. Nous travaillons à intégrer les commentaires et nous recherchons actuellement des techniques de provenance plus efficaces pour le texte, et nous nous sommes engagés à développer et déployer des mécanismes permettant aux utilisateurs de savoir si le contenu audio ou visuel est généré par une IA. ».

Il faut dire que contrairement à des images par exemple, l'ajout de métadonnées dans un texte de manière transparente n'est évidemment pas possible ; sa détection est donc cantonnée à la détection, ou non, de modèle (ou pattern) de langage utilisé par les IA. Aisément altérable, cela ne peut être une source unique et pertinente d'identification. Et c'est là que s'invitent les probabilités, en déduisant que la valeur d'une information est proportionnelle à l'amplitude des variations dans les conclusions : moins une information est probable, plus elle est considérée comme pertinente. Une transcription mathématique un peu simpliste des écrits, de leurs formulations, et de la richesse de langages et surtout d'analyses pouvant conduire à des conclusions similaires. Accessoirement, une porte ouverte sur les fenêtres des théories du complot et autres trolls... Sport ô combien populaire sur le net.

 

Sur la base de ce paradigme, d'autres ingénieurs ont apporté leurs pierres à l'édifice, notamment Claude Shannon et Warren Weaver, aboutissant à un modèle de communication avec des travaux complétant, entre autres, un certain Alan Turing. Les « sciences de l'information » en s'appuyant sur les notions de corrélation, d'entropie et d'apprentissage pour analyser un texte et en dégager le sens. C'est sur la base des travaux appliquée à la linguistique que les outils de détection de textes-pondus-par-IA semblent vouloir s'orienter, chassant les schémas de langage — demandant un apprentissage préalable — puis y appliquant une pondération. Aveu d'échec pour OpenAI et / ou manque d'anticipation sur les problèmes éthiques liés à l'explosion des usages de l'IA ? On a pas fini de manger des deepfakes, fakes tout court, plagiats, ou encore des soucis de droits d'auteurs ; en ce sens revoir le cahier des charges semble, quoique tardive, la bonne option. D'autant que, pour continuer à former les IA, si on dispose d'une base d'apprentissage foireuse, ce n'est à priori pas gagné gagné de gagner (désolé) en pertinence : les acteurs en lice ont donc tout intérêt à ce que ces biais algorithmiques soient largement contenus.

 

En aparté et pour élargir l'idée, rappelons à toutes fins utiles que l'IA ne se résume pas à GPT. Deepmind par exemple — mince, encore Google... — vient d'aider significativement à l'avancée dans la recherche sur la mise au point de la fusion nucléaire, en permettant le contrôle inédit du plasma. Auparavant, la société avait déjà fait parler d'elle avec la prédiction réussie de la structure de protéines, conduisant à une meilleure compréhension de leurs interactions avec le corps humain.

Un poil avant ?

AMD en mode DLC : du Zen 4 sous les 200 balles, une belle faille zenbleed sur les puces Zen 2 et du Navi 31 recyclé

Un peu plus tard ...

Un bus 512-bit sur le prochain flagship NVIDIA... Qui ne sera pas la 4090 Ti

Récemment réunis à la maison blanche, de grands acteurs de l'IA semblent décidés à aller vers plus de neutralité dans la génération des données synthétiques, ainsi qu'une meilleure identification de ces dernières.

temps de concentration afin de cerner l'ensemble des subtilités de ce billet 4 minutes

Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 
 
 



Suivez-nous sur G.Actualités
Les 7 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Rondoudou, le Dimanche 30 Juillet 2023 à 16h56  
par Jemporte, le Dimanche 30 Juillet 2023 à 16h21
Par exemple Photoshop utilise la librairie libre de droits des auteurs qui utilisaient leur cloud.
Est-ce que ces auteurs savaient que ça a allait être utilisé pour copier la méthode puis servir sans qu'ils soient tous référencés et leur oeuvre citée ???

Globalement Adobe aurait dû prévenir de l'usage qu'il en ferait.
Le loi doit le spécifier et ceux qui veulent participer à ce genre d'usage doivent donner leur accord et en même temps on doit leur offrir un service équivalent sans accord.
Bien sûr, vous pouvez fumer que rien de tout ça sera fait...

L'utilisateur paie préventivement pour d'éventuels droits d'auteur dès qu'il achète une unité de stockage, mais le GAFAM et les grosses sociétés commerciales utiliseront les oeuvres, ne paieront rien, forceront même les utilisateurs à donner leurs droits sous peine de se voir interdits les clouds, mais feront payer l'usage de leur IA basée sur la copie de ces oeuvres.

Vous avez bien vu pour Disney par exemple : il modifient totalement les oeuvres originales dont ils profitent des droits d'auteurs d'auteurs décédés pour faire de la propagande wokiste et LGBT+. Ce sont pas les seuls mais eux ont racheté à peu près toutes les sociétés média aux USA et aussi ailleurs, ont un quasi-monopole et se permettent même de tout faire pour bloquer la distribution de films contre la pédophilie, parce que pour eux c'est permis dans certains milieux (on sent la direction dans la mouvance d'Epstein).
J'ai vu le film que Disney a tout fait pour bloquer et y'a rien dedans qui puisse le qualifier de complotistes comme les média la qualifient à l'unisson (je pense qu'aucun de ces journaleux ne l'a vu).
Je suis d'accord, d'ailleurs ça me sidère
par Rondoudou, le Dimanche 30 Juillet 2023 à 16h54  
par Jemporte, le Dimanche 30 Juillet 2023 à 16h05
Le problème c'est il y a une copie de la méthodologie avec usage de documents tiers pas forcément avec l'accord des intéressés. Je rappelle qu'on nous fait payer au prix fort les supports de toute nature parce que censément on copierait dessus des oeuvres avec des droits d'auteur reversés aux ayant droit qui n'ont rien à faire qu'à attendre que ça leur tombe du ciel. Et pareil, toutes sortes de logiciels p2p sont surveillés ou considérés illégaux.
Par contre les IA, sous peine que ce sont les GAFAM et que c'est commercial, il faut surtout pas y toucher et les réglementer...

En réalité le seul problème il est dans le fait que si on peut vérifier l'usage et le progrès des IA chez nous par notre justice, ou par exemple en Inde, au Japon ou dans un autre pays démocratique, ce n'est pas possible en Russie et surtout pas en Chine où c'est l'armée et les services secrets qui l'utilisent contre les individus. Donc le danger en bloquant les progrès des IA c'est de rester à la traine face à ces pays.
Les pays qui courent sur l'IA à tout va prennent un risque énorme, nous savons à quel point on peut perdre le contrôle, la fiction restant ce qu'elle, nous donne une idée des dégâts que l'on pourrait subir...la course au profit de tout bord va nous ruiner, et je parle là de l'humanité.
Si on est assez con pour laisser les choses partir à vau-l'eau en se disant bêtement "ça va aller on va trouver une solution", alors on est mort.
par Jemporte, le Dimanche 30 Juillet 2023 à 16h21  
Par exemple Photoshop utilise la librairie libre de droits des auteurs qui utilisaient leur cloud.
Est-ce que ces auteurs savaient que ça a allait être utilisé pour copier la méthode puis servir sans qu'ils soient tous référencés et leur oeuvre citée ???

Globalement Adobe aurait dû prévenir de l'usage qu'il en ferait.
Le loi doit le spécifier et ceux qui veulent participer à ce genre d'usage doivent donner leur accord et en même temps on doit leur offrir un service équivalent sans accord.
Bien sûr, vous pouvez fumer que rien de tout ça sera fait...

L'utilisateur paie préventivement pour d'éventuels droits d'auteur dès qu'il achète une unité de stockage, mais le GAFAM et les grosses sociétés commerciales utiliseront les oeuvres, ne paieront rien, forceront même les utilisateurs à donner leurs droits sous peine de se voir interdits les clouds, mais feront payer l'usage de leur IA basée sur la copie de ces oeuvres.

Vous avez bien vu pour Disney par exemple : il modifient totalement les oeuvres originales dont ils profitent des droits d'auteurs d'auteurs décédés pour faire de la propagande wokiste et LGBT+. Ce sont pas les seuls mais eux ont racheté à peu près toutes les sociétés média aux USA et aussi ailleurs, ont un quasi-monopole et se permettent même de tout faire pour bloquer la distribution de films contre la pédophilie, parce que pour eux c'est permis dans certains milieux (on sent la direction dans la mouvance d'Epstein).
J'ai vu le film que Disney a tout fait pour bloquer et y'a rien dedans qui puisse le qualifier de complotistes comme les média la qualifient à l'unisson (je pense qu'aucun de ces journaleux ne l'a vu).
par Jemporte, le Dimanche 30 Juillet 2023 à 16h05  
par Rondoudou, le Samedi 29 Juillet 2023 à 22h28
Je suis d'accord, mais il est là le problème. L'IA ne s'est pas créée elle même à partir de rien, quelque part on l'a faite à notre image, ça sent mauvais tout ça... elle est programmée ... en imitant la neutralité, on le voit bien sur les versions débridées, le reste en effet "je ne suis pas en mesure de répondre à cette question bla bla bla".
Le problème c'est il y a une copie de la méthodologie avec usage de documents tiers pas forcément avec l'accord des intéressés. Je rappelle qu'on nous fait payer au prix fort les supports de toute nature parce que censément on copierait dessus des oeuvres avec des droits d'auteur reversés aux ayant droit qui n'ont rien à faire qu'à attendre que ça leur tombe du ciel. Et pareil, toutes sortes de logiciels p2p sont surveillés ou considérés illégaux.
Par contre les IA, sous peine que ce sont les GAFAM et que c'est commercial, il faut surtout pas y toucher et les réglementer...

En réalité le seul problème il est dans le fait que si on peut vérifier l'usage et le progrès des IA chez nous par notre justice, ou par exemple en Inde, au Japon ou dans un autre pays démocratique, ce n'est pas possible en Russie et surtout pas en Chine où c'est l'armée et les services secrets qui l'utilisent contre les individus. Donc le danger en bloquant les progrès des IA c'est de rester à la traine face à ces pays.
par Rondoudou, le Samedi 29 Juillet 2023 à 22h28  
par Pascal M., le Jeudi 27 Juillet 2023 à 11h30
La théorie, c'est que le travail d'un journaliste est précisément censé être neutre et objectif. On peut apporter une dose de subjectif et l'argumentant pour étayer un propos, mais sans en enlever sa neutralité initiale. Bon ça, c'est sur le papier...
A mon sens, compte tenu de son côté universel, l'IA doit être et tout faire pour rester neutre. Les humains sont suffisamment cons comme ça pour interpréter toutes les nuances possibles

Je suis d'accord, mais il est là le problème. L'IA ne s'est pas créée elle même à partir de rien, quelque part on l'a faite à notre image, ça sent mauvais tout ça...il n'y a pas eu une histoire aux USA avec un pilote de drone qui a été tué par l'IA qui était censé l'aider ? Elle avait estimé que le pilote posait problème quand à son analyse...faut que je retrouve la News, je suis sûr de l'avoir vu !

Donc l'IA n'est pas digne de confiance, elle n'est pas neutre, elle est programmée pour abonder dans le sens d'une idéologie en imitant la neutralité, on le voit bien sur les versions débridées, le reste en effet "je ne suis pas en mesure de répondre à cette question bla bla bla".
par Pascal M., le Jeudi 27 Juillet 2023 à 11h30  
par Un ragoteur des lumières en Vienne, le Jeudi 27 Juillet 2023 à 11h16
"c'est internet. Autrement dit l'endroit qui n'est pas le plus neutre du monde, à l'image de ses utilisateurs. "
J'ai toujours du mal avec ce problème dont on affuble les IA... est-ce qu'une bibliothèque est neutre ? Si on vous demande (ou à un journaliste, on s'en fout) de relater un évènement, va t'il le faire "de manière neutre" ou être influencé par ses propres opinions et la ligne éditoriale de son magasine ?
Les humains ne sont jamais neutres, pourquoi l'IA devrait l'être ?
La théorie, c'est que le travail d'un journaliste est précisément censé être neutre et objectif. On peut apporter une dose de subjectif et l'argumentant pour étayer un propos, mais sans en enlever sa neutralité initiale. Bon ça, c'est sur le papier...
A mon sens, compte tenu de son côté universel, l'IA doit être et tout faire pour rester neutre. Les humains sont suffisamment cons comme ça pour interpréter toutes les nuances possibles
par Un ragoteur des lumières en Vienne, le Jeudi 27 Juillet 2023 à 11h16
"limitant de facto les conneries stratosphériques que l'IA est capable de vous sortir." J'ai entendu un journaliste expliquant récemment la Pixel War, c'était un combat entre pays et à la fin, on désigne un vainqueur... Heureusement que c'était pas une IA qui en a parlé !
par Un ragoteur des lumières en Vienne, le Jeudi 27 Juillet 2023 à 11h16  
"c'est internet. Autrement dit l'endroit qui n'est pas le plus neutre du monde, à l'image de ses utilisateurs. "
J'ai toujours du mal avec ce problème dont on affuble les IA... est-ce qu'une bibliothèque est neutre ? Si on vous demande (ou à un journaliste, on s'en fout) de relater un évènement, va t'il le faire "de manière neutre" ou être influencé par ses propres opinions et la ligne éditoriale de son magasine ?
Les humains ne sont jamais neutres, pourquoi l'IA devrait l'être ?

"limitant de facto les conneries stratosphériques que l'IA est capable de vous sortir." J'ai entendu un journaliste expliquant récemment la Pixel War, c'était un combat entre pays et à la fin, on désigne un vainqueur... Heureusement que c'était pas une IA qui en a parlé !