En 2030 : OPENAI aura une IA plus PUISSANTE que N'IMPORTE QUEL CODEUR
BiscotteDeter
il y a un mois
N'importe quoi, même implémenté "correctement", une version "simplifié" par LLM est évidemment un atout.
Si ta documentation fait 30 pages, oui, en effet, peut-être qu'un LLM est inutile. Si elle en fait plusieurs milliers ça change la donne
Il suffit simplement d'adapter la documentation à l'intervention que l'on doit réaliser, à la tâche qu'il faut effectuer.
Il n'est pas nécessaire d'avoir toute la documentation tout le temps.
Avec une méthode de classification, il est très simple d'avoir la documentation adaptée à ce que l'on doit faire.
Pourquoi faire simple quand on peut faire compliqué hein?
En réalité, un simple algorithme suffit.
binks112
il y a un mois
Il suffit simplement d'adapter la documentation à l'intervention que l'on doit réaliser, à la tâche qu'il faut effectuer.
Il n'est pas nécessaire d'avoir toute la documentation tout le temps.
Avec une méthode de classification, il est très simple d'avoir la documentation adaptée à ce que l'on doit faire.
Pourquoi faire simple quand on peut faire compliqué hein?
En réalité, un simple algorithme suffit.
Sauf quand le technicien ne sais pas ce qu'il recherche lui même, et que sur la base d'une simple PHOTO il a une réponse immédiate.
Ooupihop
il y a un mois
AYYAAA ca fait 20 ans que ça commence l'année prochaine, la réalité c'est que personne ne veut une voiture qui conduit toute seule, ça sert à rien
pareil pour l'IA, ça injecte énormément d'argent pour des débouchés quasi useless
Mettre ensemble le métavers, les voitures autonomes et les LLM
Aucun rapport mais on se sent intelligent
Les transformers c'est 2016. Les LLM 2018. GPT-3 2020
El famoso "ça fait 20 ans". Il est évident que si tu te bases seulement sur des articles de presse étonnamment oui, les prédictions sont assez mauvaises
BiscotteDeter
il y a un mois
Oui sauf que maintenant c'est trop tard, que personne n'a envie de mettre les mains dans le cambouis pour re-écrire un guide complet destiné aux techniciens.
Maintenant avec le LLM, le technicien a juste à prendre une photo des branchements, l'envoyer au LLM, et recevoir une réponse instantané, plutôt que de téléphoner au QG, ou lui même devoir filtrer un manuel de plusieurs milliers de pages, sans trop savoir ce qu'il cherche.
Sauf que ce n'est pas une méthode infaillible même si vous essayez sans doute de le faire croire à vos clients. Si un jour l'algorithme ne parvient pas à identifier correctement l'image ou fait un erreur, plus personne ne sait chercher dans la documentation de façon efficace.
binks112
il y a un mois
Sauf que ce n'est pas une méthode infaillible même si vous essayez sans doute de le faire croire à vos clients. Si un jour l'algorithme ne parvient pas à identifier correctement l'image ou fait un erreur, plus personne ne sait chercher dans la documentation de façon efficace.
Cet argument s'applique à tout.
Si ta machine à café tombe en panne, tu sais moudre toi même du café?
AnonymeAlpha
il y a un mois
J'ai prévu le coup, je suis ingé mécatronique
Je repense aux golems de prépa qui sont quasi tous aller en informatique, ils sont en train de se faire GR par des pakistanais déter boostés à ChatGPT.
Une bonne sélection naturelle.
D'ailleurs, perso je suis naze en dev mais grâce à GPT, je m'en sors pas trop mal.
De quoi faire rager le dev de la boite qui m'a toujours pris pour un débile, je sors désormais des meilleurs programmes que lui.
Ronaldinoents
il y a un mois
Mettre ensemble le métavers, les voitures autonomes et les LLM
Aucun rapport mais on se sent intelligent
Les transformers c'est 2016. Les LLM 2018. GPT-3 2020![]()
El famoso "ça fait 20 ans". Il est évident que si tu te bases seulement sur des articles de presse étonnamment oui, les prédictions sont assez mauvaises
en réalité les maths derrière les modèles ont 40+ans, y'a pas eu d'évolution à ce niveau là et y'en aura pas, la seule différence c'est qu'on a une bien meilleur puissance de calcul et beaucoup plus de données à exploiter qu'il y'a 20 ans
mais ça y est on a déjà fait le tour, et GPT tourne en rond depuis 2 ans maintenant
Pareil pour la concurrence qui fait encore moins bien, ceux qui parlent d'évolution exponentielle sont des gelems spé linkedin
binks112
il y a un mois
De toute façon, dans les industrie à risque les IA sont encore très très limitées.
Tant que l'IA n'est pas infaillible à 100%, l'IA ne pourra pas être déployée pour faire des avions, dans la création de médicament et j'en passe.
C'est littéralement régulé.
D'ailleurs, quand tu vas dans les usines de gros constructeurs qui sont régulé par la lois, ils utilisent encore d'ancienne technologie, parce qu'à chaque migrations / changements, ils perdent leurs certificats et sont obligé de repasser les certifications.
Ooupihop
il y a un mois
Cet argument s'applique à tout.
Si ta machine à café tombe en panne, tu sais moudre toi même du café?
L'argument imparable.
"Si c'était mieux fait alors ce serait mieux"
Heureusement que nous n'avons pas créé des outils qui permettent de calculer à notre place, nous ne saurions plus calculer nous-mêmes ... oops, ça existe déjà, ça s'appelle un ordinateur et le résultat concret c'est une accélération du progrès technologique
binks112
il y a un mois
en réalité les maths derrière les modèles ont 40+ans, y'a pas eu d'évolution à ce niveau là et y'en aura pas, la seule différence c'est qu'on a une bien meilleur puissance de calcul et beaucoup plus de données à exploiter qu'il y'a 20 ans
mais ça y est on a déjà fait le tour, et GPT tourne en rond depuis 2 ans maintenant
Pareil pour la concurrence qui fait encore moins bien, ceux qui parlent d'évolution exponentielle sont des gelems spé linkedin
Je suis assez d'accord avec toi. En revanche, c'est pas parce que la technologie stagne qu'on ne trouveras pas de nouvelles manières innovante de l'utiliser.
Chaque jour y'a des mecs qui arrivent à détourner l'usage d'origine pour en faire une solution innovante.
Ronaldinoents
il y a un mois
J'ai prévu le coup, je suis ingé mécatroniqueJe repense aux golems de prépa qui sont quasi tous aller en informatique, ils sont en train de se faire GR par des pakistanais déter boostés à ChatGPT.
Une bonne sélection naturelle.
D'ailleurs, perso je suis naze en dev mais grâce à GPT, je m'en sors pas trop mal.
De quoi faire rager le dev de la boite qui m'a toujours pris pour un débile, je sors désormais des meilleurs programmes que lui.
tu pues un peu le complexe d'infériorité chef
surtout que ça marche dans tous les domaines, n'importe quelle fraude peut devenir bon en histoire, géopolitique etc.. avec chatGPT
SonicCoureur
il y a un mois
les magasin surprime de plus en plus les caisse auto ?
par contre tu dis de la turbo merde là
Laisse le khey. Le mec croit vraiment qu'une caisse auto est plus ergonomique pour une daronne de classe moyenne qui a rempli tout le caddie qu'une caissière + caisse à tapie roulant
La caisse auto c'est bon si t'as 6/7 articles sinon c'est de la grosse merde
kheyduHelm3
il y a un mois
pas besoin d'un LLM pour faire une recherche dans une documentation...
Oui tu prend juste plus de temps.
Gain de temps = gain d'argent.
Ronaldinoents
il y a un mois
De toute façon, dans les industrie à risque les IA sont encore très très limitées.Tant que l'IA n'est pas infaillible à 100%, l'IA ne pourra pas être déployée pour faire des avions, dans la création de médicament et j'en passe.
C'est littéralement régulé.
D'ailleurs, quand tu vas dans les usines de gros constructeurs qui sont régulé par la lois, ils utilisent encore d'ancienne technologie, parce qu'à chaque migrations / changements, ils perdent leurs certificats et sont obligé de repasser les certifications.
this
y'a plein de boites qui tournent sur du windows XP en big 2k25 donc bon l'IA
Ronaldinoents
il y a un mois
Je suis assez d'accord avec toi. En revanche, c'est pas parce que la technologie stagne qu'on ne trouveras pas de nouvelles manières innovante de l'utiliser.
Chaque jour y'a des mecs qui arrivent à détourner l'usage d'origine pour en faire une solution innovante.
oui mais ceux qui parlent de révolution, de gain exponentiel sont des fraudes
encore une fois les modèles n'ont pas du tout avancé et utilisent juste une approche probabiliste qui a été décovuerte y'a des dizaines d'années, on a rien découvert de nouveau depuis longtemps sur les modèles
c'est juste qu'avant on avait pas autant de puissance de calcul pour tout mettre en oeuvre, mais maintenant qu'on l'a fait je vois pas en quoi on pourrait avancer d'avantage
AnonymeAlpha
il y a un mois
tu pues un peu le complexe d'infériorité chef
surtout que ça marche dans tous les domaines, n'importe quelle fraude peut devenir bon en histoire, géopolitique etc.. avec chatGPT
Faut voir l'égo des dev.
Il y a 2-3 ans, ils se la jouaient tous en mode intellectuel.
Ils sont bien retombés ayaaa
kheyduHelm3
il y a un mois
Et encore, j'ai bossé un peu sur un constructeur automobile, ils génèrent plusieurs millions de pages chaque années, c'est un enfer sans LLM de s'y retrouver.
Bon, en attendant, ils ont toujours pas de LLM, parce qu'ils n'arrivent pas à tag autant de données par ans. Quand c'était quelques millions, ça allait, mais plus y a de données, plus de LLM commence à halluciner
C'est pour ça qu'il faut faire des agent ia ou des LLM spécialisé dans ta doc en particulier pour ne pas faire halluciner.
Pour ça il faut fintuné une bdd et utilisé des outils comme https://milvus.io/
binks112
il y a un mois
L'argument imparable.
"Si c'était mieux fait alors ce serait mieux"![]()
Heureusement que nous n'avons pas créé des outils qui permettent de calculer à notre place, nous ne saurions plus calculer nous-mêmes ... oops, ça existe déjà, ça s'appelle un ordinateur et le résultat concret c'est une accélération du progrès technologique![]()
Clairement. L'argument qui n'a aucun sens.
Là où par contre il a pas entièrement tort, c'est que l'être humain deviens de plus en plus mauvais dans certains domaines.
Fut un temps, j'ai été comptable (avant de me re-orienter) et un jour j'ai vu un papier de la cours des comptes qui disait que 80% des amortissements dérogatoires dans les comptabilité étaient FAUSSES.
C'est lié au fait qu'avant le comptable la calculait à la main, et revérifiais 3x avant de le valider, là où maintenant, plus aucun comptable fait le calcul, on laisse le logiciel (EIC, CIEL…) le faire à notre place, sans vérifier derrière, sauf que ces logiciels sont les 3/4 du temps très mal paramétrer
Ooupihop
il y a un mois
en réalité les maths derrière les modèles ont 40+ans, y'a pas eu d'évolution à ce niveau là et y'en aura pas, la seule différence c'est qu'on a une bien meilleur puissance de calcul et beaucoup plus de données à exploiter qu'il y'a 20 ans
mais ça y est on a déjà fait le tour, et GPT tourne en rond depuis 2 ans maintenant
Pareil pour la concurrence qui fait encore moins bien, ceux qui parlent d'évolution exponentielle sont des gelems spé linkedin
La différence entre les modèles de 2023 et 2025 est fulgurante
La concurrence au contraire rattrape OpenAI (Google et Anthropic pour ne citer qu'eux)
O3 c'est ce que le publique voit, en coulisse il existe déjà mieux.
Ce n'est pas miraculeux mais c'est très au-dessus de ce que beaucoup de chercheurs pensaient atteindre à cette date. En 2018 tu aurais demandé à n'importe qui si une IA type o3 était possible on t'aurait répondu que oui, mais dans 30 ans.
Et les LLMs ne sont probablement qu'une étape, d'autres techniques sont en cours de recherche, pour le moment les LLMs c'est ce qui fonctionne le mieux et aucun mur à ce jour, on scale de plus en plus
Miridy11
il y a un mois
C'est pour ça qu'il faut faire des agent ia ou des LLM spécialisé dans ta doc en particulier pour ne pas faire halluciner.
Pour ça il faut fintuné une bdd et utilisé des outils comme https://milvus.io/
ça s'appelle du RAG mais c'est loin de marcher de façon fiable, tout ce que ça fait c'est calculer une similarité entre ta requête et des documents dans une base de donnée, et tu fais une recherche approchée par plus proche voisin dedans.
Sauf que la façon de calculer la similarité dépend de l'entrainement et elle n'est pas toujours pertinente et très opaque.
Il y a énormément de hack/rustine dans les systèmes de RAG actuel (rien que pour que le modèle comprenne le texte+image, graphiques etc dans des pdf non structurés).
kheyduHelm3
il y a un mois
Mettre ensemble le métavers, les voitures autonomes et les LLM
Aucun rapport mais on se sent intelligent
Les transformers c'est 2016. Les LLM 2018. GPT-3 2020![]()
El famoso "ça fait 20 ans". Il est évident que si tu te bases seulement sur des articles de presse étonnamment oui, les prédictions sont assez mauvaises
La réalité c'est qu'on bosse dessus que depuis les années 2010 et ça a commencé avec google.
Ils s'attendent à ce que ce type de techno sorte en 5 ans ...
+ le el famoso personne a envie ça sert à rien.
J'aime bien conduire mais le jour ou ma voiture a un pilote auto, je vais l'utiliser les 3/4 du temps et faire autre chose durant le trajet.
Et je parle même pas des trajets long ou je vais taper une sieste.
kheyduHelm3
il y a un mois
ça s'appelle du RAG mais c'est loin de marcher de façon fiable, tout ce que ça fait c'est calculer une similarité entre ta requête et des documents dans une base de donnée, et tu fais une recherche approchée par plus proche voisin dedans.
Sauf que la façon de calculer la similarité dépend de l'entrainement et elle n'est pas toujours pertinente et très opaque.
Il y a énormément de hack/rustine dans les systèmes de RAG actuel (rien que pour que le modèle comprenne le texte+image, graphiques etc dans des pdf non structurés).
C'est des techno encore jeune mais ça va s'améliorer.
kheyduHelm3
il y a un mois
en réalité les maths derrière les modèles ont 40+ans, y'a pas eu d'évolution à ce niveau là et y'en aura pas, la seule différence c'est qu'on a une bien meilleur puissance de calcul et beaucoup plus de données à exploiter qu'il y'a 20 ans
mais ça y est on a déjà fait le tour, et GPT tourne en rond depuis 2 ans maintenant
Pareil pour la concurrence qui fait encore moins bien, ceux qui parlent d'évolution exponentielle sont des gelems spé linkedin
GPT tourne en rond depuis 2 ans maintenant ? ah bon on dois pas utiliser le même LLM alors..
Le truc est 10 fois plus performant qu'il y'a deux ans mais ça tourne en rond
Ronaldinoents
il y a un mois
La différence entre les modèles de 2023 et 2025 est fulgurante
La concurrence au contraire rattrape OpenAI (Google et Anthropic pour ne citer qu'eux)
O3 c'est ce que le publique voit, en coulisse il existe déjà mieux.
Ce n'est pas miraculeux mais c'est très au-dessus de ce que beaucoup de chercheurs pensaient atteindre à cette date. En 2018 tu aurais demandé à n'importe qui si une IA type o3 était possible on t'aurait répondu que oui, mais dans 30 ans.
Et les LLMs ne sont probablement qu'une étape, d'autres techniques sont en cours de recherche, pour le moment les LLMs c'est ce qui fonctionne le mieux et aucun mur à ce jour, on scale de plus en plus![]()
Oui ils rattrapent mais ils ne font pas mieux c'est ce que j'ai dit
"En coulisse" Tu bosses chez openAI ? Non donc t'en sais rien et tu te bases sur des rumeurs de merde qui sont utiles pour booster les investissements
EN 2018 tu aurais demandé à n'importe quel chercheur il t'aurait dit oui dans quelques années, c'est sur que si tu demandes au péquin moyen il va te dire de la merde car personne ne comprend les modèles derrière sauf si t'as travaillé dessus
Mais encore une fois les LLM ça n'a rien de révolutionnaire, c'est juste des prédicteurs de mots ça me fait marrer meme qu'on appelle ça IA quoi
binks112
il y a un mois
C'est pour ça qu'il faut faire des agent ia ou des LLM spécialisé dans ta doc en particulier pour ne pas faire halluciner.
Pour ça il faut fintuné une bdd et utilisé des outils comme https://milvus.io/
T'as p-e raison, j'en sais rien.
Je peux pas détailler le problème plus en profondeur pour des raisons de confidentialité.
Je ne suis pas développeurs ni ingénieur, je travail en discovery dans l'équipe design. Mon rôle est de trouver une solution à un problème, puis de réunir des experts dans les domaines ciblés (ingénieurs, développeurs, data analyst etc…) pour me dire si c'est faisable ou non.
Ils semblaient tous unanime pour dire que oui c'était ENFIN faisable, mais que c'était normal que le client se soit cassé le nez des 10 dernières années (ils avaient essayé avec du ML, DL, de la GenAI..)
kheyduHelm3
il y a un mois
De ce que je comprend eux ils ont une stratégie différente vu qu'il dev un truc totalement open source.
C'est une stratégie intelligente.
https://www.youtube.com/watch?v=nAmQE1F41TE&ab_channel=VisionIA
ChatChiant3
il y a un mois
Qu'ils crée une femme robot pour désire sexuel déviant on s'en bas les couilles des IA qui répondent comme un moteur de recherche banal
This, marre de devoir supporter ces c*nnasses d'humaines.
Polochyz
il y a un mois
De ce que je comprend eux ils ont une stratégie différente vu qu'il dev un truc totalement open source.
C'est une stratégie intelligente.
https://www.youtube.com/watch?v=nAmQE1F41TE&ab_channel=VisionIA
C'est grâce à Meta qu'on avance en GenIA hein
Merci Zuck
Miridy11
il y a un mois
C'est des techno encore jeune mais ça va s'améliorer.
Pour l'instant tout ce qui est explicabilité/safety ça n'a pas réellement progressé, et ça fait partie des soucis avec les hallucinations etc qui empêchent réellement d'enlever l'humain de la boucle car l'IA est en général toujours surconfiante et donnera 99% de score même si elle répond à côté de la plaque.
Même pour les évaluer au final c'est très empirique, on utilise des jeux de données mais on voit bien que c'est imparfait quand tous les pseudo benchmark "human AGI" se font dégommer alors que l'IA ne sait toujours pas compter le nombre de lettres dans un mot.
Ronaldinoents
il y a un mois
GPT tourne en rond depuis 2 ans maintenant ? ah bon on dois pas utiliser le même LLM alors..
Le truc est 10 fois plus performant qu'il y'a deux ans mais ça tourne en rond
ouais ils ont sorti du cosmétique quoi mais le modèle fondamentalement n'a pas évolué des masses
après c'était déjà performant y'a 2 ans mais aujourd'hui ça s'est fait quasi rattraper par la concurrence, signe qu'ils n'ont pas du tout fait d'avancée extraordinaire sinon ils seraient toujours largement leader ..
Juvensky_Fede
il y a un mois
kheyduHelm3
il y a un mois
Oui ils rattrapent mais ils ne font pas mieux c'est ce que j'ai dit
"En coulisse" Tu bosses chez openAI ? Non donc t'en sais rien et tu te bases sur des rumeurs de merde qui sont utiles pour booster les investissements
Bah non il a raison c'est connu, tu pense qu'ils ont pas déjà la prochaine version ?....
Un peu avant l'été dernier ils était déjà sur o3 en interne, c'est connu, et sam altman a lui même annoncé que leurs devs sont sur un model au dessus de o3.
C'est normal d'avoir 6 mois d'avance en interne voir parfois 1 an, c'est toujours comme ça dans toutes les boites techno...
Ronaldinoents
il y a un mois
Bah non il a raison c'est connu, tu pense qu'ils ont pas déjà la prochaine version ?....
Un peu avant l'été dernier ils était déjà sur o3 en interne, c'est connu, et sam altman a lui même annoncé que leurs devs sont sur un model au dessus de o3.
C'est normal d'avoir 6 mois d'avance en interne voir parfois 1 an, c'est toujours comme ça dans toutes les boites techno...
évidemment ils vont pas dire qu'ils branlent rien et qu'ils se tournent les pouces comme n'importe quelle boite, oui ils bossent sur le prochaine version logicielle. La vraie question c'est est-ce que on atteint un plafond de verre ou pas et ça t'en sais strictement rien
kheyduHelm3
il y a un mois
Pour l'instant tout ce qui est explicabilité/safety ça n'a pas réellement progressé, et ça fait partie des soucis avec les hallucinations etc qui empêchent réellement d'enlever l'humain de la boucle car l'IA est en général toujours surconfiante et donnera 99% de score même si elle répond à côté de la plaque.
Même pour les évaluer au final c'est très empirique, on utilise des jeux de données mais on voit bien que c'est imparfait quand tous les pseudo benchmark "human AGI" se font dégommer alors que l'IA ne sait toujours pas compter le nombre de lettres dans un mot.
Polochyz
il y a un mois
TheLelouch5
il y a un mois
Y'a plein d'exemples ou il se foire sur des questions débiles
https://community.openai.com/t/incorrect-count-of-r-characters-in-the-word-strawberry/829618
Forcément plus ça se sait plus c'est "patché" (et moins ça se voit notamment avec les modèles récents qui font du CoT ce qui revient à lui redonner sa propre réponse pour qu'il trouve ses erreurs)
kheyduHelm3
il y a un mois
évidemment ils vont pas dire qu'ils branlent rien et qu'ils se tournent les pouces comme n'importe quelle boite, oui ils bossent sur le prochaine version logicielle. La vraie question c'est est-ce que on atteint un plafond de verre ou pas et ça t'en sais strictement rien
Ooupihop
il y a un mois
évidemment ils vont pas dire qu'ils branlent rien et qu'ils se tournent les pouces comme n'importe quelle boite, oui ils bossent sur le prochaine version logicielle. La vraie question c'est est-ce que on atteint un plafond de verre ou pas et ça t'en sais strictement rien
Pour le moment rien indique un quelconque plafond de quoi que ce soit
Comment ? Suffit d'observer l'évolution des modèles depuis 2 ans tout simplement.
De moins en moins cher et de plus en plus "intelligent"
Et on sait que plus on fournit de puissance de calcul et plus le modèle est performant, le but est surtout de réduire le cout.
Tiens, exemple typique d'un benchmark non "ouvert" pour mesurer le taux de réussite de ce genre de question débile :
https://simple-bench.com/
La réussite moyen d'un humain : 84%
Oui c'est "patché" comme tu dis, enfin dans un sens.
O3 n'y est pas encore, mais vu comment O3-mini dépasse O1-mini il y a fort à parier que O3 dépassera O1
Belzeborg
il y a un mois
Pour le moment rien indique un quelconque plafond de quoi que ce soit
Comment ? Suffit d'observer l'évolution des modèles depuis 2 ans tout simplement.
De moins en moins cher et de plus en plus "intelligent"
Et on sait que plus on fournit de puissance de calcul et plus le modèle est performant, le but est surtout de réduire le cout.Tiens, exemple typique d'un benchmark non "ouvert" pour mesurer le taux de réussite de ce genre de question débile :
https://simple-bench.com/
La réussite moyen d'un humain : 84%
Oui c'est "patché" comme tu dis, enfin dans un sens.
O3 n'y est pas encore, mais vu comment O3-mini dépasse O1-mini il y a fort à parier que O3 dépassera O1
Après bon o3 c'était 2000$ par inférence en moyenne ou un truc du genre
Ooupihop
il y a un mois
Ooupihop
il y a un mois
Après bon o3 c'était 2000$ par inférence en moyenne ou un truc du genre
Je ne sais pas exactement combien mais oui ça coute cher, c'est bien pour ça qu'aujourd'hui le but est de réduire les couts.
Les estimations sont une réduction des couts de "l'intelligence" de 4 tous les ans.
Dans trois ans un modèle type O3 sera totalement accessible en terme de cout
Ronaldinoents
il y a un mois
Ooupihop
il y a un mois
la rentabilité de l'IA est surtout ultra dépendante des prix de l'énergie, si demain y'a une flambée des prix de l'élec aux USA, c'est finito pipo
Ronaldinoents
il y a un mois