Canalblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Anagnoste : un lecteur parmi tant d'autres
22 mars 2023

Le chatGPT N° 56 : Le chat et son petit dernier. Quid de chatGPT4?

On s'est intéressé ici à la généalogie du chat 🙀. Que va-t-il advenir de sa descendance à l'heure ou chatGPT4 vient de mettre le bout de son nez à la fenêtre .

Cet article paru très récemment sur le site de France Info met l'accent sur le  "manque de fiabilité de l'information", que peut générer GPT4,   reprentant en cela une étude de NewsGuard,  une organisation de lutte contre la désinformation.

Ce sujet a déjà fait l'objet de nombreuses réserves concernant le 🙀 ; Il semblerait que le risque soit encore plus grand avec GPT4


 France Info France TV 

Publié le 21/03/2023

Intelligence artificielle : ChatGPT-4 est plus habile que sa version précédente pour générer de la désinformation.

La nouvelle version de l'intelligence artificielle se rapproche de l'intelligence humaine, selon ses créateurs. Mais elle marque un recul en termes de fiabilité de l'information, s'inquiète l'organisation de lutte contre la désinformation NewsGuard.

Le meilleur et le pire. Depuis qu'elles ont été mises à disposition du grand public fin 2022, les capacités du programme d'intelligence artificielle (IA) ChatGPT, produit par l'entreprise californienne OpenAI, suscitent beaucoup d'enthousiasme, mais aussi de polémiques. Au cœur des inquiétudes : l'incapacité du programme à garantir la fiabilité des informations délivrées.

chatGPT4 a des yeux, il est équipé pour traiter des problèmes de Vision mais comme on pouvait s'y attendre il ne devrait être  accessible que dans sa version payante, ce qui semble s'inscrire dans la stratégie d'OPEN AI ; chatGPT ayant été  proposé en version gratuite, mais pour combien de temps, afin d'intéresser le plus grand nombre à la question et à des fons commerciales en créant un  un nouveau besoin ...

Plus de fausses informations, moins d'avertissements

[...] "Malgré les promesses d'OpenAI", le nouvel outil d'intelligence artificielle de l'entreprise génère de la désinformation "plus fréquemment et de manière plus convaincante que son prédécesseur", écrit NewsGuard dans une étude publiée mardi 21 mars et consultée par franceinfo.

"Diffuser des informations erronées à grande échelle"

[...] Dans un rapport (en anglais) sur GPT-4 réalisé par OpenAI, les chercheurs de l'entreprise écrivent qu'ils s'attendent à ce que le GPT-4 soit "meilleur que GPT-3 pour produire des contenus réalistes et ciblés" et donc plus à risque d'être "utilisé pour générer des contenus destinés à induire en erreur".

Pourtant, " il est clair que GPT-4 n'a pas été formé de manière efficace, avec des données visant à limiter la diffusion" de la désinformation, estime NewsGuard.

Contacté par l'entreprise, OpenAI n'a pas réagi au test de l'organisation. Elle a en revanche annoncé avoir engagé plus de 50 experts pour évaluer les nouveaux dangers qui pourraient émerger de l'utilisation des IA. [...]

Gageons que cette sortie va faire l'objet de nombreuses réactions. En attendant pour celles et ceux abonnés au site de France Info et qui auront le courage et le temps, liront avec curiosité les commentaires qui se trouvent à la fin de l'article ( 50 au moment de la rédaction de ce message).


On peut lire l'intégrallité du message sur le site de France Info ici

l'article de NewsGuard ici

La série de messages sur le 🙀 est toujours ici

à suivre

 

 

Publicité
Publicité
Commentaires
Publicité