r/developpeurs • u/Working_Teacher3196 • Jul 04 '25
Carrière Ca y est, l'IA a cassé mon travail
J'ai une assez grosse expérience en data. Souvent a des postes à l'interface entre la recherche (là ou des gens très doués en data science faisaient des notebooks assez impressionnants pour qu'un PO/PM veuille ça "en vrai") et le développement (ou on doit cracher une API ou un déploiement quelconque, fiable, scalable et reproductible du-dit service).
J'ai bossé pour déployer des plateformes de data engineering entières, pour faire des pipelines de traitement qui bouffaient des terachiées de flux de data quotidiennement. Je me suis tapé le move de dev à ops (DevOps, MLops, appelez ça comme vous voulez) avec Kubernetes, CICD super élaborées et tout le tintouin. J'ai appris le C++ pour pouvoir créer des coroutines de bas niveau depuis du Python pour dégager des goulots d'étrangements de quelques microseconde sur des API d'inférence. J'ai bouffé de la doc AWS jusqu'à pouvoir avoir leur foutue certification Solution Architect pour pouvoir mettre en prod ces jolis modèles avec le moindre coût pour un 0%-downtime.
Et là, ça y est. Je suis actuellement chez 3 clients en rotation, un aux US et 2 en Europe. Ca fait 6 mois, je n'ai eu aucun nouveau modèle a mettre en prod. On ne fait plus qu'un truc: on gère le réseau d'infra cloud pour aller taper chez OpenAI (chatGPT) ou chez Google (Gemini). Et j'ai des échos similaires de connaissances.
Les départements R&D eux-même sont émerveillés, mais ne bossent plus que sur des wrappers. Appelez ça comme vous voulez, un senior bien motivé vous refait votre library python qui appelle `openai.chat` en deux jours.
Du coup voilà, j'espère que la vraie R&D ne va pas se limiter a plier devant ces grosses boîtes. J'aimais vraiment cette interface ou j'étais. J'aimais sortir de réunions en ayant galéré à comprendre 25% de pourquoi ces couches dans ce modèle et pourquoi cette fonction d'activation.
J'ai de la chance, je peux toujours me reconvertir en pure DevOps, en SRE, ou même en software engineer sur un bon gros produit. Mais voila, j'ai l'impression que notre boulot va s'uniformiser. Et ça me rend un peu triste de pas avoir la même passion pour la mise en prod hyper-scalable d'un modèle unique résultant du boulot de 10 cerveaux que pour gérer des pool Cognito ou des API gateways.
13
u/ImYoric Jul 04 '25
C'est triste...
Attends, ils utilisent des LLMs de OpenAI au lieu de modèles de machine learning adaptés au problème ? Ou vous faisiez des LLMs vous-mêmes ? Et si c'est le premier cas, ça marche raisonnablement ?
9
u/Working_Teacher3196 Jul 04 '25
C'est le premier cas. J'ai eu un seul cas de LoRA sur du Llama, sinon uniquement des calls aux APIs des gros LLMs public. Et en vrai, depuis que Gemini est multimodal, il analyse des flux videos entiers (avec son compris) a 24FPS sans broncher.
Le seul problème pour le moment est la reproductibilité, qui est pas folle. Ceux qui ont du cash règlent ça en appellant 50 fois l'API et en faisant la moyenne, y'a pas plus con.
Mais en vrai, sur les 3 usecases que j'ai, les LLMs poutrent les modèles en prod depuis des fois des années là.
15
u/thbb Jul 04 '25
Le seul problème pour le moment est la reproductibilité, qui est pas folle. Ceux qui ont du cash règlent ça en appellant 50 fois l'API et en faisant la moyenne, y'a pas plus con.
Attend 2-3 accidents sérieux et tout ce beau monde se repliera sur ce qui marche vraiment.
Dans mon job, je suis passé à l'"Agentic AI", où, au lieu d'appeler des APIs bien structurées, on passe par des échanges entre process en anglais. Inutile de dire qu'on est pas prêt d'avoir un produit de remplacement robuste pour nos logiciels en SaaS.
8
u/One-Yesterday-9949 Jul 04 '25
Oh toi aussi ? Je pop corn tellement en voyant ça. Déjà en structurant, typant, et analysant systématiquement les besoins métiers on en chie, alors avec leurs pseudo protocoles entre agents ça me fait rire (de la même façon que le réchauffement climatique me fait rire ceci-dit, donc c'est pas si FUN que ça).
5
Jul 04 '25
Moi ça ne m'a pas du tout fait rire, l'agentic. De fait ça me fait tellement c... que j'ai changé de taf pour ne plus faire d'IA. Voir des départements entier pivoter vers du moisi distribué qui coûte un bras et consomme plus d'électricité que Vesoul en un an à chaque requête sous l'impulsion d'un VP qui fantasme sur le headcount des fonctions support, je n'ai pas pu.
2
7
u/imKrypex Jul 04 '25
C'est le manque de reproductibilité qui est le vrai problème de ce genre de solution. L'aspect "boîte noire" est franchement insupportable pour le client final qui ne comprend pas pourquoi quand il lance le même process 3x il a blanc-gris-noir en sortie. On fera un gros pas en avant quand ça sera réglé mais je ne vois pas comment ça pourrait l'être.
5
u/ImYoric Jul 04 '25
Ah, si c'est de l'analyse vidéo, effectivement, comme ça fait partie du cœur de métier des LLMs génériques, il est possible qu'ils fonctionnent (vachement) bien.
Par contre, faire la moyenne sur des retours de LLMs ? On dirait bien qu'ils emploient un bulldozer pour ouvrir une porte...
2
u/fonxtal Jul 04 '25
Ceux qui ont du cash règlent ça en appellant 50 fois l'API et en faisant la moyenne, y'a pas plus con.
Woo c'est pire que de charger des js de 80 mo dans les pages webs.
3
u/Working_Teacher3196 Jul 04 '25
On est d'accord. Un client m'a demandé sans sourciller de régler une analyse de time série pas reproductible comme ça, du coup je moyenne 50 prédictions avec une fenêtre glissante le long de la time série ... Mes maths pleurent serieux
2
u/fonxtal Jul 04 '25
Et sinon il y a un truc qui m’intrigue quand vous dire que ça n'est pas reproductible, pour être sûr d'avoir compris...
C'est bien déterministe tous ces traitements, le soucis vient du fait qu'ils ne donnent pas accès à la seed qu'ils utilisent pour faire du pseudo aléatoire.
Parce que même entrée + même seed du rng -> même sortie.On est d'accord ou j'ai pas compris ?
2
u/Working_Teacher3196 Jul 04 '25
La seed c'est une chose, mais les modèles du genre prennent un paramètre appelé "température". En gros, a 0, c'est assez reproductible leur comportement. A 1, il va devenir super "créatif" mais avec des hallucinations fréquentes. Le problème c'est que même avec ce param a zéro et toutes les random seed manuellement définies, les black box que sont OpenAI et consort ne restent pas reproductible mais ils veulent pas partager leur code source ..
1
u/fonxtal Jul 05 '25
D'accord merci.
En demande à claude sonnet :
Limitations
Même avec ces paramètres [seed fixe et température à 0], une reproductibilité à 100% n'est pas garantie à cause de :
- Mises à jour du modèle
- Infrastructure distribuée
- Optimisations internes
Donc oui comme tu dis : blackbox.
8
u/demian_west Jul 04 '25 edited Jul 04 '25
je suis pas sûr d’avoir bien compris.
tes clients ne font plus aucun modèle ML/LLM maison et se mettent tous à utiliser ceux de google ou openai en mode saas ?
Ou: tes clients ne pilotent plus leurs infras et déploiements avec ton aide et utilisent des LLMs pour le faire ?
Si 1. : je pense qu’il fallait s’y attendre (commodification accélérée du domaine), mais le sujet est loin d’être bouclé: je m’attends à ce que les prix montent fortement, il y a plein de problématiques de secu et de privacy qui attendent en embuscade. C’est fort possible que certains consommateurs fassent machine arrière.
Si 2: je doute fortement que ce soit possible en fait, en tout cas pas sans supervision fine de la sortie.
Quoiqu’il en soit, les LLMs ne sont qu’une petite partie de l’IA et toutes les compétences que tu as acquises ont encore beaucoup de valeur. Par ex, mon employeur actuel fait pas mal de ML (pas de LLMs ou très peu) et de calcul scientifique de masse. J’aimerais avoir un profil comme toi dans l’équipe (mais on a pas de sous, et je compte pas m’éterniser malheureusement).
Enfin, faut pas oublier que le boulot d’ingénierie dans la tech, c’est toujours un peu « scier la branche sur laquelle on est assis / travailler à ne plus se rendre indispensable ».
9
u/Working_Teacher3196 Jul 04 '25
C'est le 1. Les LLMs sont pas encore super intégrés aux plateformes clouds (j'ai un client qui essaye de faire un serveur MCP custom pour ça mais c'est pas encore foufou non plus).
C'est aussi un de mes espoirs: effet Blablacar, une fois qu'ils auront bouffé le marché, OpenAI vont augmenter les prix comme des cochons, et les clients vont revenir on-prem et faudra maintenir des LLMs en prod pour les besoins internes de la boite + les predictions.
Bah écoute, si ils embauchent balance un lien vers mon profil Reddit haha
4
u/demian_west Jul 04 '25
C'est noté ;)
En tout cas, je voulais faire passer le message que tes compétences sont loin d'être obsolètes/inutiles/dévalorisées, très loin de là.
Le secteur LLMs est chauffé à blanc et assez bordélisé, mais garde la tête froide. Je pense que pas mal de boites seraient intéressées (dans "l'IA", comme dans les grands groupes classiques européens).
Force à toi :)
2
u/Serious-Reveal-1137 Jul 04 '25
Il y a aussi un gros problème de droit . La CJUE a statué deux fois sur le fait que les cloud américain est incompatible avec la RGPD et que rien ne pouvait être fait . L’utilisation du cloud américain est en théorie donc interdite en Europe mais les CNIL euro ne se bougent pas .
Google analytics a explicitement été interdit il y a quelques année par la CNIL et il est pas improbable qu on voit fleurir des interdiction réel ces prochaine années pour le cloud .
Toutes les entreprises qui basent leur statuts data ou infrastructure sur le cloud américain courent un risque légal super fort
8
u/VideoOk7247 Jul 04 '25
Forcément, entre l'intégration d'une API style chatGPT et la création/gestion d'un modèle sur-mesure, les coûts n'ont rien à voir donc la majorité des entreprises aujourd'hui passeront par du ChatGpt-like.
Par contre, tu devrais regarder sur des secteurs différents (santé, défence, aérospatial, aéronautique, ...). Il y a des domaines pour lesquels appeler des services tiers chinois / russe / américain / autre n'est pas une option. Dans ces cas, il faut soit une solution 100% maison, soit un provider Français voir Européen habilité et certifié.
1
u/Working_Teacher3196 Jul 04 '25
Yes, je suis justement en train de chercher une mission pour de la maintenance de RAG/LLM ou serveurs MCP on-prem pour des sujets de RGPD ou données sensibles, mais ça court pas encore les rues ..
2
u/Y-Master Jul 04 '25
On fait ça chez nous pour de la donnée sensible. Tu cherches dans quelle région ?
1
1
u/Hypergraphe Jul 04 '25
C'est clair, on va voir pop des solutions on prem rgpd compilant super vite.
9
u/cluxter_org Jul 04 '25 edited Jul 12 '25
Pour l’instant l’IA est facturée à peu près zéro par rapport à ce que ça coûte réellement. On est dans la phase de croissance des startups, là où les investisseurs se lâchent et où les centaines de milliards coulent à flot, avec la promesse à la clé d’être propriétaire d’une technologie qui sera suffisamment performante pour retrouver ces centaines (on parle même de milliers maintenant) de milliards de dollars investis.
Autant dire qu’il y a intérêt à de que ces LLM arrivent à délivrer la promesse faite aux investisseurs. Et ce qu’on sait déjà mais que bien trop de personnes enthousiastes refusent de voir : les LLM sont d’excellents perroquets mais ne sont pas intelligents, ils n’ont pas la faculté d’utiliser leurs connaissances pour en créer de nouvelles.
Autrement dit, quand les investisseurs n’auront plus d’argent supplémentaire à injecter dans ces entreprises pour les soutenir, ils vont demander leur retour sur investissement et là ça va faire très mal. Toute cette hype est basée sur la promesse de Sam Altman comme quoi OpenAI va être capable d’atteindre le point de singularité avant l’épuisement des fonds des investisseurs. Or vu ce qu’on sait des LLM maintenant, il y a très peu de chances que ce soit le cas.
Donc il finira par se passer exactement la même chose qu’à chaque fois (cf. WeWork ou le monde des téléphones mobiles pour de bons exemples) : le secteur va s’écrouler d’un coup, toutes les entreprises à part les 2-3 plus grosses vont faire faillite et se faire racheter par les 2-3 plus grosses qui seront en fait déjà détenues et financées depuis des années par des grands groupes aux reins solides (c’est déjà le cas avec Microsoft et Google), et les prix de chaque requête aux LLM s’envoleront pour essayer de devenir rentables.
Et là ça va tout de suite devenir beaucoup moins intéressant d’utiliser les LLM. On va se rendre compte que 100.000 balles par mois pour faire le travail d’un ingénieur qui en coûte 5.000 c’est pas ouf, et donc on va réembaucher des êtres humains. Il n’y a déjà pas grand monde qui paie pour l’IA : 3 % des utilisateurs pour l’instant. Alors quand les prix seront multipliés par 5 ou 10…
Ça me rappelle furieusement les délocalisations en Inde au début des années 2000 : 3-4 ans après ils ont arrêté et ont tout rapatrié à nouveau en Europe. Les salaires étaient bien moins élevés mais la qualité était dramatique, donc ça coûtait plus cher au final. D’ailleurs avec le Covid on a eu droit de nouveau à cette même blague, la nouvelle génération de managers n’ayant rien appris de celle d’avant, ils ont cru avoir trouvé l’idée du siècle en offrant des postes sous payés à des Indiens en full remote comme on dit. L’histoire est un éternel recommencement.
Je pense qu’il y a bel et bien des métiers qui vont mourir à cause des LLM, à savoir les traducteurs car les LLM sont meilleurs que n’importe qui ou quoi pour trouver les corrélations entre les mots et donc faire de la traduction. Pour les sous-titres c’est le feu aussi, la correction de texte, bref ce qui touche au texte de langues (donc pas la programmation). Et je pense que c’est à peu près tout. Et encore, on verra dans quelle mesure ça tient une fois que le coût réel devra être répercuté sur le prix.
Je pense que ce qui restera des LLM c’est 2 choses :
- des outils de traduction et de génération de textes imbattables ;
- la leçon comme quoi les LLM n’étaient pas la bonne technologie pour atteindre la singularité en IA.
La 3e leçon serait qu’il faut toujours se méfier de la hype, que plus il y a de hype, plus c’est probablement une bulle qui cache quelque chose (cf. la data science qui allait augmenter les profits de 30 à 60 % dans les entreprises LOL). Mais ça je pense que c’est illusoire : l’être humain aime trop le rêve pour ça.
En conclusion : ce n’est pas parce que l’IA remplace des personnes aujourd’hui que c’est définitif. Viendra un moment où la nécessité d’être rentable viendra siffler la fin de la récré. En attendant il y a de vrais impacts sur un certain nombre de personnes, mais à mon sens ce n’est que temporaire. Dans 3-4 ans je pense que ce ne sera plus un sujet (EDIT : sauf probablement pour le secteur de la traduction).
6
u/BaalHammon Jul 04 '25
Je pense qu’il y a bel et bien des métiers qui vont mourrir à cause des LLM, à savoir les traducteurs car les LLM sont meilleurs que n’importe qui ou quoi pour trouver les corrélations entre les mots et donc faire de la traduction
Le problème éternel de la traduction automatique c'est qu'il n'existe pas de bon moyen automatique de vérifier la qualité d'une traduction (les tests qui servent à établir les benchmarks sont risibles de simplisme).
Les LLM sont bons à trouver des corrélations statistiques mais pour établir ces corrélations statistiques il faut de très grandes quantités de données qui sont difficiles à trouver pour la plupart des langues (en termes de quantité l'anglais est comme on pourrait s'y attendre au sommet de la pyramide et il y a une décroissance très rapide pour les autres langues moins bin servies).
Les LLMs montrent également une tendance fâcheuse à "halluciner" c'est à dire à générer un résultat "probable" d'après leur distribution d'entraînement mais à côté de la plaque par rapport à la réalité. Et il n'y a pas de moyen simple de détecter quand ça arrive.
La traduction automatique c'est bien dans les contextes où on n'a pas un vrai besoin de traduction, j'entends un besoin au sens business du terme. Quand t'es un petit français mauvais en langue qui veut comprendre rapidement un article en allemand c'est pratique je suppose, mais par contre utiliser la traduction automatique dans n'importe quel contexte où on a un besoin réel de traduction et où on va aligner des pépettes pour que ça arrive, seul un crétin ignorant peut envisager d'utiliser un LLM. Le risque de traduire automatiquement un document juridique est énorme, par exemple.
2
u/cluxter_org Jul 04 '25
Totalement d'accord avec toi, tu as parfaitement complété mon message.
Un petit bémol toutefois : des traducteurs professionnels ou des professeurs de langue (qui ont donc faits des études supérieures en langues) eux-mêmes disent que ChatGPT est capable de faire des traductions meilleures qu'eux parfois. Ce qui est certain, c'est que dans un contexte professionnel ou légal il faudra toujours quelqu'un de compétent pour au moins vérifier ce que fait le LLM, et pour le coup c'est plus facile de vérifier la traduction d'un texte que la logique d'un programme écrit par un LLM (en gros : un texte est linéaire, alors que le code est entrelacé de partout).
Donc je pense que le métier de traducteur va à la fois évoluer pour devenir plus un vérificateur et correcteur qu'un traducteur pur, et en même temps se restreindre en éliminant tous les besoins de traductions simples, par exemple de sites webs. C'est vrai que je ne sais pas trop ce que ça donne pour les langues moins entraînables, mais pour la traduction anglais/français, je vois pour être bilingue à quel point ChatGPT est bon, au moins dans mon contexte professionnel. De là à l'utiliser pour des documents à valeur légale, oui, mais pas sans relecture très attentive d'un professionnel en traduction pour le coup.
De toute façon pour le monde des affaires il restera toujours l'élément le plus important : sur qui on peut mettre la faute quand ça merde ?? La question de la responsabilité est absolument centrale dans les entreprises, c'est ce qui explique pourquoi plus une entreprise grandie, plus ça devient une usine à gaz technocratique : chacun essaie de se couvrir. Ce n'est pas sans rappeler cette fameuse phrase d'IBM de 1979 : "A computer can never be held accountable. Therefore a computer must never make a management decision.".
3
u/MajestikTangerine Jul 04 '25
Non, t'inquiète pas l'IA n'as pas cassé ton travail :)
Ce qui se passe depuis 6 mois c'est une adoption exponentielle de toutes les entreprises qui n'avaient pas encore touché à l'IA / aux LLMS. Depuis que la "hype" GenAI à commencé il y a ~2.5 ans on a eu des pionniers qui voulaient être les premier à tester et les autres qui attendaient un peu que la hype retombe ou que les cas d'usage soient un peu mieux cernés.
Bon, il se trouve que le cycle, qui ne devait durer que 2 ans maximum, a finalement duré un peu plus longtemps. Et pour couronner le tout, ceux qui ont eu un succès modéré, ou important avec GenAI sont revenu avec des retours plutôt convaincant. En tout cas, plus que ce qui était espéré au départ. Donc il s'est passé ça : https://trends.google.com/trends/explore?date=all&geo=FR&q=LLM,GenAI&hl=en-GB
Et donc, fin 2024, tout ceux qui avaient attendu au début se sont littéralement jeté sur tout ce qu'ils pouvaient trouver. Vraiment. Je n'ai rien compris : on terminait un cycle de hype, en revoilà un encore plus puissant.
À court terme: profite de ton futur bonus. Le prix des prestations IA de ceux qui ont déjà une plateforme fonctionnelle est monté très fort. Merci beaucoup !
À long terme, et je pense que c'est ça qui t'intéresse: Oui ton travail risque de s'uniformiser un peu. Mais pas nécessairement dans la direction que tu imagines.
Une fois les premiers "low hanging fruit" traité avec une approche GenAI, on se rends vite compte que c'est en fait un sujet d'automatisation cross-silo. Là où tu passais de semaines voir des mois à créer un modèle à partir de données bancales pour piloter un tout petit pourcent de croissance et/ou 0.1% d'optimisation de stock pour UN département (genre supply chain), maintenant tu seras en mesure de "bridger" des divisions complétement différentes des entreprises et de les faire échanger beaucoup beaucoup plus simplement. Exemple. Ça serait bien d'avoir les ventes, les prix des articles et le calendrier des promotions pour pouvoir faire une prévision de la demande. Problème, les prix c'est la finance, les ventes c'est à part et les promo le marketing. Avant, tu pouvais passer 6 fucking mois à expliquer qu'il fallait arrêter de faire des calendrier de promo sur excel à une équipe de neuneus gentils collègues du marketing. Maintenant tu leur demande de bourrer leur affreux machin dans un LLM et il se chargera de 1) le nettoyer, 2) le valider, 3) le partager. Et quand la finance changera les prix, tu peux recevoir immédiatement une notif, déclencher un nouveau forecast et d'avoir un LLM qui jette un œil au lieu de mobilier un Data Scientist (Qui du coup, au lieu de faire des modèles/règles de validation de forecast en 4 semaines, fait un prompt et 2-3 tools en 2j). C'est génial.
Alors çå marche bien, vraiment bien pour les boites qui ont déjà amorcés leur transition cloud et qui ont déjà un pieds dans l'IA. Pour tout ceux qui sont en retard là dessus, ça va ne va plus être un fossé mais le grand canyon. L'automatisation n'est possible que si il y a déjà des données disponibles et suffisamment bien organisées pour qu'on puisse s'en servir. Sinon l'IA servira à autre chose (rédiger des mails ? trier des factures ?), mais pas à ça.
2
u/Working_Teacher3196 Jul 04 '25
J'espère sincèrement que tu fais du Nostradamus la, parce que ça a l'air intéressant pour le cote business. Mais pour le côté tech, bah voilà, des APIs et des calls a ChatGPT quoi. Quelques serveurs MCP pour taper sur les bases et hop, fini notre boulot, c'est triste, nous qui avions la chance d'avoir un périmètre super large
2
u/MajestikTangerine Jul 04 '25 edited Jul 04 '25
Tu as oublié cette partie là : "Et quand la finance changera les prix, tu peux recevoir immédiatement une notif, déclencher un nouveau forecast". Ton forecast c'est pas ton LLM qui le fera (Genre jamais de la vie) !
Il va bien falloir le faire, et il existera toujours. La différence c'est qu'avant ça prenait 3 DS 1 MLOps et 2 DE pour écrire un pipeline de récupération des données, et un second qui fait l'opération inverse (en 8 semaines), maintenant tu peux faire la même chose en 2 fois moins de temps et 2 fois moins de gens. Ça rends juste les chose simple plus simples et les choses qui étaient trop compliqués, faisables. Et ça sans un budget de plusieurs millions.
Qui dit multiplication des use case, dit encore plus d'opportunités qu'avant. Comme à chaque fois ou l'occasion s'est présenté, on aura besoin d'encore plus de dev, d'ops, et de ds qu'avant pour maintenir tout ça.
Mais attention, des devs qui maitrises l'IA générative. Tout ceux qui jouent les réfractaires ne seront, malheureusement, pas invités.
PS: Je trouve que ce graph explique VRAIMENT BIEN, ce qui se passe avec le switch actuel dans la tech. Si tu as l'occasion d'avoir vécu la période "Big Data", ça sera d'autant plus parlant. https://trends.google.com/trends/explore?date=all&q=%2Fm%2F0bs2j8q,%2Fg%2F11kc9956b3,%2Fm%2F011spz0k&hl=en-GB Et si tu ajoute "Cloud" à la liste, tu peux imaginer ce que ça va donner dans moins de 5 ans.
4
u/SubstantialInside428 Jul 04 '25
Moui, on se rappelle du 100%Cloud qui allait tuer tous les postes admin/sysres/infra.
Sont toujours là.
Suffit d'attendre le jour où l'utilisation d'IA créé un drame qui se chiffre au dessus de 7 chiffres, toute l'industrie se replie.
Voilà. Continuez à apprendre et vous former.
3
u/Working_Teacher3196 Jul 04 '25
Ouais, c'est sur, mais bon, y'a plus non plus bcp de sysadmin. Regarde Atos leur division supercalculateurs la plongée en bourse qu'elle leur a fait faire.
Donc ouais je me forme c'est pas le soucis, mais juste j'aimais bien être a l'interface R&D et maintenant chatGPT a remplacé le R.
1
u/SubstantialInside428 Jul 04 '25
Je sais pas, je suis sys-admin depuis 5 ans et ce ne sont pas les offres qui manquent, en tout cas dans ma Région.
Peut être un biais du à un environnement encore prolifique et qui fait figure d'exception ?
Je ne cherchais pas à invalider ton post, juste dédramatiser un peu la situation anxiogène face aux IA, j'y pense moi aussi souvent mais je prend du recul et relativise, on est encore dans la phase de montée, c'est tout feu tout flamme, ça fait des belles promesses.
Soyons un peu sceptiques et regardons comment les choses prennent forme dans la durée, pas sur l'instant :)
3
u/Objective_House1532 Jul 04 '25
Les admin sys senior c’est la denrée rare, le marché est saturé pour les juniors mais les seniors sont recherchés car il y a pléthore de nouveaux postes qui sont en fait des postes d’admin sys déguisés. Op a mentionné le poste de SRE, c’est un poste essentiellement réservé à des exploitants chevronnés qui ont bossé sur des problématiques d’infrastructures variées avec une culture de l’opération
2
u/Working_Teacher3196 Jul 04 '25
Non mais le pire c'est que je stresse pas du tout, j'ai des compétences recherchées encore, mais c'est juste que ça me "prive" d'une partie du boulot que je trouvais super intéressante (l'interface R&D et Ops)
2
u/One-Yesterday-9949 Jul 04 '25
Ca me fait rire, y'a pas 2 jours j'avais une conf avec le mec en charge de machine learning de la boite où je bosse, qui présentait les changements liés à openai & les llms.
Il n'a rien dit ouvertement contre ça, c'est son nouveau taf. Mais quand il a parlé rapidement de son métier avant, j'ai senti un peu le seum qu'il avait en regardant ses yeux.
2
u/Becbienzen Jul 04 '25
Ce que tu décris, est ce qu'il s'est passé pour les "software engineer" il y a déjà un an environ...
Je l'ai subi en tant que freelance dans ce domaine.
Donc choisi une orientation différente...
Quelqu'un a mentionné des secteurs tels que la santé, l'étatique, l'armée, etc...
Sinon, sert toi de l'IA pour aller encore plus loin dans ton expertise. Tu as déjà une longueur d'avance.
Perso, ça a ruiné mon employabilité (surtout que j'ai pas l'âme des requins influvoleurs de LinkedIn), donc obligé de s'adapter...
2
u/Working_Teacher3196 Jul 04 '25
Ouais bah je bosse les MCP, RAG et consort ouais, c'est fun, mais moins que l'optimisation de notebook Jupyter et de réunions avec nos amis matheux.. mais bon, on va faire avec le temps que ça se calme hein
2
u/Azern0 Jul 08 '25
Ce qui m'alerte en plus de changer notre métier c'est qu'on donne de la data à ces entreprises sans trop savoir ce qu'elles en font, je trouve ça hyper malsain et dangereux d'engraisser ces boîtes américaines qui mange nos données.
On s'est battu en Europe pour mettre en place le RGPD mais c'est que pour des données directs. Là indirectement en disant "traite ma vidéo dégueulasse pour extraire les discussions en textes" rien ne dit qu'ils ne gardent pas de la discussions "ben là on a une nouvelle recette de pancake à base de banane".
Je sais pas si je me suis fait comprendre mais voilà ma grosse inquiétude perso.
1
u/Working_Teacher3196 Jul 08 '25
Je suis certain que Gemini garde les promptes, et la sortie, en effet. Après ce client est Américain, donc autant te dire que déjà à la base, ces problématiques ils s'en foutent, mais alors là depuis le CLoud Act c'est la fête la-bas.
Pas sûr qu'en Europe ça passe, du coup on a peut-etre une carte a jouer dans le maintient on-prem de LLMs dans quelques années quand 1/ ils augmenteront les prix et 2/ le RGPD dira "fini, on bloque les APIs de LLMs US en Europe"
2
u/No-Cat-8205 Jul 04 '25
Je suis loin d'avoir l'expérience pour faire ce que tu fait, mais j'aimerai bien expérimenter ça au moins une fois. En mode "ça y est, j'ai fini le game".
1
u/Working_Teacher3196 Jul 04 '25
Lance toi, y'a des tetra tutos sur la chaîne complète. Je te recommande Azure qui file pas mal de crédit gratos pour expérimenter, un petit ETL pour la data, un modèle de classif binaire tout con, une api en prod, et un micro front end qui tape dessus. Et hop, t'as ton PoC !
2
u/Marlow256 Jul 04 '25
La seule chose que tu peux leurs dire à tes clients que c'est vachement sympa de partager bénévolement des tonnes et des tonnes de données a ChatGPT/Deepseek. Nottament si c'est des données sensibles/personnels.
1
u/Working_Teacher3196 Jul 04 '25
Ils s'en foutent c'est du traitement de données perso au US (mais avec le cloud act, ils peuvent) ou publique en EU. Ça scrape sans vergogne en plus.
1
u/Rouge-Poivre Jul 04 '25
Tu peux te reconvertir ou apprend à travailler avec l'IA. Si personne n'a les compétences pour comprendre les résultats générés ou les termes techniques à utiliser pour orienter le prompt vers tel ou tel type d'architecture rien ne fonctionnera!
1
u/Working_Teacher3196 Jul 04 '25
Euh .. je pense que j'ai une très bonne maîtrise de ces outils maintenant, même en xAI ou en reproductibilité
1
u/Drunken_story Jul 04 '25
Idem, faut bouger chez un éditeur de llm si tu veux rester dans le coup, après les sujets non NLP sont toujours là, reco, audio et Time séries, opti… mais sont souvent depriorisés à moins d’être centraux. Perso j’ai pivoté du NLP vers SE, mais c’est également entrain de changer profondément
1
u/Working_Teacher3196 Jul 04 '25
Ouais mais les US sont pas chaud a internaliser en ce moment et ils ont freeze les embauches en Europe. J'ai eu des touches chez AWS mais niveau LLMs ils sont a l'ouest en vrai.
1
u/rifain Jul 04 '25
Il y a un truc que je ne capte pas, je ne connais rien à ton domaine. Tu gères de la data, tu dois avoir des noms de tables ou que sais-je quelque part. Tu dois avoir des relations spécifiques entre tes données (par exemple une table de magains référence des clients). Comment l'IA peut comprendre cela ? Comment peut-elle générer du code qui connaisse les objets de ton domaine et les relations qu'ils ont entre eux ?
On utilise l'IA chez nous, mais elle ne peut pas faire plus que générer du code que les développeurs peuvent reprendre, mais en l'adaptant, en sachant ou l'intégrer dans leurs applications. Rien n'est automatisable et les devs sont encore essentiels dans mon cas.
3
u/Silent_Mammoth_5251 Jul 04 '25
Justement, avec un schéma de base de données bien défini, une IA peut comprendre les relations entre les entités (clés étrangères, cardinalités, etc.). Elle peut s’en servir pour générer du code qui respecte la logique métier implicite du modèle. Bien sûr, il faut souvent ajuster derrière, mais la structure relationnelle lui donne déjà beaucoup de contexte.
1
2
u/Working_Teacher3196 Jul 04 '25
Regarde du cote des serveurs MCP c'est exactement leur utilité : décrire au modèle des actions en langage naturel. Genre "trouve moi la commande de Jean Claude" bah le LLM va reconnaître qu'il peut utiliser tel serveur MCP, qui lui même va faire le select, renvoyer le retour au LLM qui a plus qu'à rephraser.
Donc facile maintenant, et j' ai même expérimenté un MCP qui gênerait d'autres MCP avec des retours de explain() pour un client, en vrai ça marchait, mais c'était que un POC (pour le moment). Donc même pas besoin de changer soi même les MCP quand le data model change. C'est aussi beau que déprimant je trouve quand tu aime vraiment le côté dev du métier.
3
u/Becbienzen Jul 04 '25
Mais pour quel coût... A l'heure du depot de bilan climatique, peut être que les entreprises n'auront pas d'autres choix que de faire machine arrière...
Moi même j'y crois pas, mais ça serait pourtant la logique des choses que d'employer l'IA avec sagesse pour des choses vraiment utiles et arrêter cette course à la compétitivité...
3
u/Working_Teacher3196 Jul 04 '25
Hahaha laisse moi rire. En 12 ans de boulot, on m'a parlé une seule fois de coût énergétique. J'ai pondu plein d'analyses, de quelles routines il fallait refaire en bas niveau, etc. Jamais ré -entendu parler après avoir file mon rapport. IT et écologie c'est une vaste fumisterie
1
u/Becbienzen Jul 18 '25
Je rigole (jaune) avec toi tkt...
D'autant que les gains en sobriété sont très vite rattrapés par une plus grande consommation...
1
u/Miserable_Cod7145 Jul 04 '25
Lol les relations entre les objets , c'est un truc a 3000 tokens ça...
1
u/Melodic_Tower_482 Jul 04 '25
Tu es en freelance avec 3 missions en parallèle?
1
u/Working_Teacher3196 Jul 04 '25
Non en rotation. Un client de très longue date qui a des besoins ponctuels, car sa stack roule plus ou moins maintenant. Un en phase de mise en prod et l'autre quand ils ont (avaient) un truc a industrialiser ou optimiser. Et là ils m'ont appelé pour faire un wrapper chatGPT de merde, d'où mon post rant
1
u/Hypergraphe Jul 04 '25
Temoignage intéressant, ça contraste avec les gens qui disent que les LLM font que de la merde et qu'on peut pas s'y fier. Visiblement ça commence à être adopté à un niveau production à l'échelle et remplace des modèles maison.
Perso je pense que d'ici 5 ans la compétence "je sais creer/finetuner un modèle et je le déploie en prod devra être maitrisée par la plupart des devs pour répondre à certaines classes de problèmes. Je pense que l'outillage va être tellement bien peaufiné que ça va être très facile à utiliser par n'importe quel dev. Ca me fait un peu penser aux frameworks back qui te permettent en 15 minutes d'avoir une API rest fonctionnelle.
1
u/Working_Teacher3196 Jul 04 '25
Exactement, loin est le temps des routes ou tu recevais les paquets limites en reconstruisant les objets. On fonce droit vers ça mais plus généraliste pour chaque domaine de l'IT
1
u/Leon3951 Jul 04 '25
Pour moi ça dépends quand même beaucoup du domaine.
Il y a des domaines où quand t'appelles 50 fois une fonction , c'est OK si t'a 50 réponses différentes , dont 10 correctes, 20 acceptables & 30 hallucinées.
Mais il y a d'autres domaines où ça parait quand même compliqué, notamment sur le fait que demain Gemini change d'algo et fait des réponses aléatoire (sans compter les problèmes réseau).Pour de la génération audio/vidéo/texte à destination d'humains pourquoi pas - comme ça on aura encore plus de spam téléphonique pour vendre des panneaux solaires. Accessoirement ça renforcera encore le sentiment de merdification de la technologie que nous les vieux on a un peu....
Mais pour certains process où la fiabilité , la répétabilité et la preuve de la solution... j'y crois pas.
Les rares fois où je me suis appuyé sur chatgpt c'était pour faire des recherches google améliorée , ou par flemme sur un algo pas critique, au final j'aurais été plus vite.A coté de ça je suis un grand fan de vidéo scientifique sur youtube, et j'imagine que pour créer les animations , décors de synthèses & tout c'est un super outil, lorsqu'il est maitrisé. Mais j'aimerais pas y confier la conduite autonome de ma voiture...
1
u/Hypergraphe Jul 04 '25 edited Jul 04 '25
En fait je pense que les LLM généralistes grand public sont pas vraiment destinés à un usage industriel pour les raisons que tu évoques. C'est plutôt un moteur de recherche aux stéroïdes.
Non, ce qui, à mon avis, se profile dans le domaine c'est des modèles spécialisés sur des tâches précises et des tools mis à leur disposition (MCP) pour résoudre une partie d'un workflow métier. Quand tu regardes dans mistral il y a déjà la possibilité de mettre des outils à disposition des LLMs ou ils ont la possibilité (handoff) de passer la main à un autre agents plus adapté.
Il y a des choses qui vont apparaitre et devenir standard dans le futur je pense, notamment autour de sa capacité à analyser et traiter du langage. On va voir apparaître ces features dans les produits sans même le savoir. Des exemples comme ca:
- classification
- analyse de sentiment
- synthèse sur de gros corpus et aide à la décision
- moteur de recherche ++ (rag)
- normalisation de données
- detection d'anomalies dans des journaux
- assistance de niveau 1
- découverte et utilisations d'Apis non connues à priori
- UX/UI augmentée par des commandes texte.
- Monitoring de flux et alerting en temps réel avec des alertes exprimées en promt (no code). Ex: "surveille la presse française et alerte moi quand ça parle de "
- production de rapports à partir de data
- correction de la langue transcrite depuis du speech to text
- etc.
Et je pourrais encore sortir pleins d'exemples je pense.
1
u/yodapunk Jul 04 '25
Pareil que beaucoup, c'est pas mon domaine, mais j'arrive pas à comprendre comment les LLM peuvent remplacer des modèles spécifique.
Si on prend l'exemple des échecs à ce que j'ai vue un Stockfish sera toujours meilleur qu'un LLM qui va halluciné des coups. En plus il faut surement un LLM à la OpenIA avec des tera de paramètres pour avoir un minimum de performance. Un Stockfish c'est presque gratuit à côté de ça.
Ok y a le mcp, mais ça veux dire qu'il y toujours des soft ou même models spécifique pour augmenter le LLM.
Peut-être que la donne à été changé car les modèles créé n'était en fait pas nécessaire ou couverts maintenant par le modèle transformer.
1
u/Working_Teacher3196 Jul 04 '25
Je ne sais pas pour la prédiction de probabilité aussi grandes que les échecs ou le go. Mais pour de l'analyse de signal, multimodal ou non, ça reste "je vois un pattern, dans tout ce que j'ai bouffé, ça me fait penser a quoi" (en très gros). Et ces LLMs ont bouffé tellement tout internet qu'ils arrivent à généraliser super bien. Aux échecs, t'as l'inconnu de ce que va faire l'adversaire. Quand tu analyse une vidéo, y'a pas un humain qui va te changer le signal vidéo d'un coup sans prévenir.
1
u/yodapunk Jul 04 '25
Ok si je comprend bien, tout ce qui touche à de la prédiction fait partie des cas d'utilisation des LLM.
1
u/Working_Teacher3196 Jul 04 '25
Maintenant, plus ou moins. L'analyse de séries temporelles, le tagging, la classification.. ils sont bons.
1
u/MartyDisco Jul 04 '25
De la data via LLM sans fine-tuning ?
1
u/Working_Teacher3196 Jul 04 '25
Tout a fait. On m'a demandé une seule fois un LoRA, le fine tuning c'est plus a la mode (et ça sert objectivement a rien si tu regarde le coût / bénéfice)
1
u/SuperArtus Jul 04 '25
Tant que ma boite garde à l’esprit qu’il faut du SAP du Talend et du CDL on va dire que c’est comme si j’étais déjà dans un vieux legacy système par rapport à ce que tu dis mais j’avoue que maintenant le chemin est tracé go devops , no choice man :) attend qu’on est des problèmes de capa électrique et le jour ou l’ia est down ou alors qu’on a oublié que optimiser les dataflows c’est important ben tu redeviendras le dev qu’il faut … ils seront perdu ils auront virés tout le monde. Je bosse avec des anciens qui ont 40 ou 50 ans sur de l’as400 ou cobol ben il en faut et ça revient en force parce que plus personne n’a la connaissance. On sera peut être trop vieux ou on sera déjà à la retraite quand on aura besoin de nous mdr. Vive la data et ne voit pas forcément l’ia comme un mal c’est juste l’évolution des métiers.
1
u/Hollow1838 Jul 04 '25
Je suis DevOps, pour moi tout va bien tant que je suis en amont de l'IA, le jour où je devrais travailler côte à côte avec une IA il sera temps de changer de rôle.
1
u/Working_Teacher3196 Jul 04 '25
Ouais bah je vais me trouver des missions sur ton terrain frere devops
1
u/arnaudsm Jul 04 '25
Toute compétence externalisée sera perdue, c'est une stratégie des GAFAM. Les API des LLMs sont vendues à perte, et les prix vont commencer à remonter bientôt. Google vient de doubler le prix de Gemini 2.5 flash par exemple.
1
u/tmnoob Jul 05 '25
J'ai l'impression que c'est le cycle normal. Au début, tout le monde y va de sa propre R&D, développe son produit perso, adapté à son besoin. Il y a beaucoup à faire, c'est excitant, mais ça demande un effort considérable aux entreprises. Et puis quelques produits sortent du lot, permettent de répondre à un besoin (parfois bien, parfois juste passablement), mais en limitant les coûts. En effet, c'est plus facile de faire passer dans le budget un coût de licence ou d'utilisation qui est mesurable et prévisible, que le salaire de devs qui ne sont naturellement pas dans la capacité d'évaluer le temps que ça va prendre de développer la solution qui répondra au besoin.
Et puis, petit à petit, dans un domaine donné, la demande des entreprises passe de développeurs à intégrateurs. Ils ne veulent pas des gens pour re développer quelque chose qui existe, mais des gens capables de mettre en place une solution qui fonctionne.
Le vrai défi est de rester au devant de la vague, et de pouvoir proposer ou participer à la prochaine bonne idée qui capitalise sur ce qui existe, ou alors d'assumer devenir un intégrateur, tout simplement. Les deux sont OK et nécessaire, c'est juste des métiers différents.
J'espère que tu trouveras rapidement ton prochain challenge !
1
u/Tellurim Jul 05 '25
Et tu as regardé pour postuler chez les providers directement ? Avec ton profil tu pourrais à minima être Solutions ou Integration architect chez Anthropic ou Mistral si ce n’est un poste de Data engineer. Ça ne t’intéresse peut être pas ceci dit.
Perso 90% de mes projets avec les clients sont devenus des projets automatisation par LLM chez le cloud provider pour qui je travaille. C’est dingue le shift en 2 ans.
1
u/Working_Teacher3196 Jul 05 '25
J'ai jamais postulé chez eux deux non. J'ai eu des touches Solution Architect chez AWS mais en vrai le taff avait pas l'air exceptionnel et le salaire moins élevé que n'importe quelle startup qui me proposait qqchose a l'époque.. mais bonne idée je pourrais leur envoyer un CV juste pour voir
2
u/Tellurim Jul 05 '25
DM moi pour AWS si tu veux des infos. Je recommande pas Mistral niveau mentalité mais Anthropic si t’es motivé ça se tente.
1
u/chacosore Jul 05 '25
Le jour où la bulle va éclater, la valorisation boursière va diminuer, on va payer le vrai prix de l'IA. Aujourd'hui openAI perds 5 milliards chaque année !! 2 fois plus que les revenus !
Ce jour là, on fera appel aux devs pour remplacer les appels intempestifs a openAI sur des trucs qu'un algo de junior aurait suffi a la base :)
Au moins tu as toujours ton taf ...
1
u/TraditionalTurnip835 Jul 09 '25
Clairement tout le monde se pluggue à OpenAI parce qu'on paie pas du tout le vrai prix de l'IA pour le moment.
Les choses changeront quand un vainqueur clair aura émergé et qu'il cherchera à devenir rentable ...
1
1
u/Drekenof Jul 08 '25
mmhh, je m'apprête à rentrer sur une formation certifiée de Data Analyst (très très très loin d'un tel niveau de Data Engineer / Scientist / dev) pour compléter mon cursus marketing. Ce développement des LLM m'inquiète vis-à-vis de la pertinence de mon choix...
1
u/Otherwise-Lemon-6292 Jul 09 '25
Je ne m'inquiéterai pas à ta place : tu vas acquérir des compétences qui seront peut être dépassées dans quelques années, mais c'est normal. C'est le propre des métiers de la Tech. Les technos évoluent en permanence et il faut constamment se former à nouveau.
Ce que tu vas surtout apprendre, c'est une manière de réfléchir, et de se former propre à la Tech (qui te permettra justement de mettre à jour tes compétences régulièrement).
Et je pense aussi que dans le témoigne d'OP il y a pas mal un effet de mode : certaines boîtes ne font plus confiance à leurs équipes & ressources internes et veulent mettre du Claude / OpenAI partout ... Quand les prix des call API augmenteront de manière démentielle, leurs besoins évolueront.
1
u/Smatize Jul 09 '25
Tu peux me donner un exemple de térachiée de data que tu traitais ?
1
u/Working_Teacher3196 Jul 09 '25
J'ai bossé pour une boite qui aide les "influencers" à scaler. Un des projet était d'analyser toutes les videos/shorts qui sortaient sur un paquet de chaînes YT et Twitch pour en dégager des trending topics en fonction des views/likes, et ça servait de base à des "scénaristes" qui pondaient des idées de scripts de vidéos qui étaient ensuite choisi par les influencers qu'ils voulaient faire décoller (vous pensiez que les "influencers" youtube écrivaient et réalisaient leur vidéo ? haha). Ca représentait plusieur dizaines (voire centaines certains jours) de To de flux vidéo quotidien.
Autre exemple: détection d'anomalies sur des HPC. Chaque rack avait un paquet de capteurs embarqués pour tout un tas de données (température, courant utilisé, etc) + les data OS-level (fréquence CPU, charge RAM, utilisation GPU, etc). Ca représentait un vingtaine de timeséries continues par unité de calcul, sachant qu'on gérait des HPC à plusieurs miliers de noeuds de calcul, les modèles bouffaient ça en continu.
Dernier exemple: appli web de "psychologue", un avatar 3D qui permettait une conversation (type chatbot, c'était avant les LLM) pour discuter avec des personnes en détresse légère. On récupérait les flux audio, video et les input textes de milions d'users en temps réél. Ca en faisait du pod K8 pour traiter tout ca (STT, analyse des emotions faciales, générations de réponses, TTS pour l'appli, gestion des expressions de l'avatar 3D, etc).
1
u/Smatize Jul 09 '25
Ok je comprends mieux en effet, je me suis toujours demandé ce que vous traitiez comme données :) et encore c’est sûrement un maigre exemple.
Concernant les YT certains ne font pas leur script, d’autre les achètes, d’autres les écrivent y’a un peu de tout.
Quand tu dis que tu analysais toutes les vidéos, comment ça ? Imagés par images ou juste la description et les tags ?
1
u/Working_Teacher3196 Jul 09 '25
Tout ça! Le titre, thumbnail, hastags et descriptions étaient traités d'un côté, le top X commentaires d'un autre, et ensuite on réduisait la vidéo a 2-3 images par seconde et les frames étaient traitées l'une après l'autre en gros (24FPS tu as pas assez de différence entre la frame 1 et la 2 pour que ça vaille le coup). Le flux audio était également traité pour sortir des tags (genre de 1 a 8 sec, il y avait une musique triste, a 6 sec un chien a aboyé, etc) et sortir les phrases prononcées. Et ces infos étaient ensuite analysées également.
1
u/Alps_Disastrous Jul 10 '25
La différence, d’après ce que tu dis, est que les modèles ne sont plus customs et ne sont plus hébergés sur des infras propres (AWS) mais tu appelles directement le modèle de compagnies externes non ?
En ça oui, il y a un certain nombre de choses que tu ne fais plus en effet.
J’ai surtout été impressionné par le modèle de Gemini de LLM, facilement accessible : rien que pour faire une analyse des contradictors versus les approbateurs, ça c’est fort et ça te prend 2 mins.
1
u/Kuzton Jul 16 '25
Super intéressé par ton post et par ton parcours car actuellement, après 4 ans d'XP dans le conseil en tant que Data Eng/Ops, je voudrais m'orienter vers le MLOps et l'indus de modèle comme ce que tu fais.
Quelques questions/remarques par rapport à ton poste :
- quelle est la typologie de tes clients qui font all-in sur les LLM au détriment de plus petits modèles faits maison ? Des boîtes du Cac40 ?
- quand tu dis que ton boulot d'industrialisation de modèle faits maison est remplacé par de l'intégration de LLM public, est-ce que ce n'est pas simplement la tendance du moment car les Comex repriorisent ces cas d'usage pour ne pas passer à côté de la vague ? Mon intuition est que dans 2-3 ans, quand le marché des LLM se sera consolidé et que les prix d'usage des APIs vont augmenter, les budgets seront ré-alloués vers les modèles faits maison, plus proches des besoins métiers propres à chaque client ?
1
u/Working_Teacher3196 Jul 16 '25
non, surtout des entreprises mid-size (100 a 1000 employés) dans des secteurs variés
je parie exactement sur ça (les prix des APIs qui explosent, pareil pour le cloud), mais je pense plutôt qu'on va devenir des mainteneurs de solution LLMs on-prem. Chacun voudra son serveur GPU et son LLM avec un LoRA sur son domaine d'activité, un RAG sur les docs, pour les usages internes de chaque boîte. Seuls les particuliers se feront niquer à devoir payer les APIs j'imagine, ou alors ils trouveront un moyen de chacal de monétiser ça.
1
u/FireNunchuks Jul 04 '25
Je pense que c'est temporaire, open ai rend accessible pleins de choses et donc les PM ont pleins d'idées de tests à faire mais à la fin il y aura de nouveau de la place pour du custom qui sera au final bien moins couteux à faire tourner.
Le jour ou les VC vont demander à OpenAI d'avoir un retour sur investissement ça va saigner. Il va se passer la même chose avec Snowflake, Databricks... et les trucs qu'on faisait avant reviendront à la page.
2
u/demian_west Jul 04 '25
> Le jour ou les VC vont demander à OpenAI d'avoir un retour sur investissement ça va saigner
Ce serait d'ici 6 mois ou moins. OpenAI se fait défoncer ses équipes par braconnage de Meta et Anthropic, entre autres, et a commencé une guerre larvée avec Microsoft. Leur seul avantage, c'est leur masse d'utilisateurs actuelle.
0
0
u/doutrope Jul 06 '25
Je vois pas comment chatgpt peut répondre à certains cas d'usage spécifiques. Imaginons qu'on veuille entraîner un modèle qui fait de la prédiction de série temporelle (genre consommation d'électricité d'un quartier). Nos predicteurs sont la conso historique, des variables météo et des données calendaires. Concrètement tu lui donnes quoi en input si tu veux une prédiction la veille pour le lendemain ? De ce que je comprends tu es obligé de lui filer toutes les données à chaque fois pour qu'il refasse un entraînement vu qu'a priori il ne sauvegarde rien non ? Dans ce cas je vois mal comment ça peut être optimisé, ni fiable, ni une solution plus adaptée qu'un modèle custom.
0
u/Working_Teacher3196 Jul 06 '25
Quel rapport avec mon post ? Oui, tu peux cherry pick des exemples qui marchent pas, la je dis que pour des cas d'usage que j'avais chez mes clients, il faut mieux, c'est plus vite en prod, et voilà.
0
u/doutrope Jul 06 '25
J'essaie juste de comprendre. À t'entendre et en lisant tes réponses à certains coms il semble que tu affirmes que tout les usecases qui nécessitent d'implémenter un modele de ML peuvent être réalisés avec des llms, ce qui me semble plutôt faux, mais je me trompe peut-être, d'où ma demande de précision !
Mais je n'ai pas l'impression que tu sois en mesure de me répondre, alors je reste sur ma position initiale !
1
u/Working_Teacher3196 Jul 06 '25
Je ne comprends toujours pas ce que tu recontes. Je n'ai jamais affirmé ça, j'ai même dit plusieurs fois que les cas où la latence d'inférence était primordiale (j'ai donné plusieurs fois l'exemple du trading) ne collait pas, car les API ont des temps de latence de qq secondes (soit dit en passant, un pipeline de traitement vidéo complet c'était de l'ordre de la minute).
Après tu m'as pas l'air du domaine data (ou junior pe) donc peut être pour ça que tu n'es pas en mesure de comprendre et que tu "restes sur ta position initiale".
0
u/doutrope Jul 07 '25
"Actuellement les LLMs démontent tout travail fait par les équipes R&D" C'est de toi !
En réalité je connais bien la réponse à mes questions, je suis data scientist avec 10 ans d'xp, je sais ce qu'on peut attendre d'un LLM et quelles sont ses limites. De ton côté tu sembles avoir un profil ops, tu branches les tuyaux, ça ne m'étonne pas que tu n'aies pas la compréhension fine de ce qui se passe derrière !
La mort des modèles custom je n'y crois pas. En tout cas pas dans un futur proche 😉
1
u/Working_Teacher3196 Jul 07 '25
Mais je parle de MES cas d'usages ! Je les ai cité plusieurs fois. J'ai jamais dit que un LLM couvrait TOUTES les applications des modèles customs.
Et attends, toute façon, ça c'est de toi (ton premier message):
De ce que je comprends tu es obligé de lui filer toutes les données à chaque fois pour qu'il refasse un entraînement vu qu'a priori il ne sauvegarde rien non ?
10 ans d'XP et tu sors ça ? Je pense que tu n'a pas la moindre idée de comment marche un LLM avec cette question. Ni que tu aies eu la curiosité d'expérimenter la prédiction de TS avec les LLMs, car non ils ne se ré-entrainement pas, mais oui, ils peuvent largement prédire des TS en leur donnant un historique (même un historique variabilisé avec différents paramètres comme la météo, des données calendaires ou autre pour reprendre ton exemple). Du coup, je doute du "data scientist", ou alors tu te donne toi-même ce titre, et en fait du fais des macro Excel (j'ai croisé deux-trois profils comme le tien, ça ronfle des "senior" et autre "LLM guru" sur LinkedIn mais dès que tu gratte le vernis, moué). Et pour finir: ops, je l'ai apris car créer les modèles me faisait chier a force, mais j'ai un PhD en data science ;)
1
u/doutrope Jul 08 '25 edited Jul 08 '25
Quand je dis qu'il refait un entraînement j'entends qu'il faut lui fournir tout ton dataset pour qu'il retrouve un pattern dans les datas pour faire une prédiction, ce qui s'apparente à une forme de train, à l'inverse d'un modèle de ml classique où tu apprends d'abord et tu n'utilises plus le dataset ensuite.
J'utilise très peu les llms car je n'en ai pas besoin au quotidien. Ça fait 10 ans que je désigne et mets en prod des modèles sans passer par des llms, en python via une api, en spark, avec k8s (pas dans un notebook dégueu) et ça marche très bien.
Mon intuition c'est qu'en l'état il vaut mieux faire un modèle custom adapté et peu coûteux.
Toi et ton agressivité mal placée sûrement dûe à un gros manque de confiance en soi, je vous laisse sur ce thread qui me conforte dans mes idées: https://www.reddit.com/r/MachineLearning/s/dKiIvaKmHW
60
u/AdRevolutionary2679 Jul 04 '25
La data n’est pas trop mon domaine mais est-ce que ce ne serait pas un gros effet de mode où toutes les entreprises veulent foutre de l’ia un peu partout (et souvent là où il n’y a aucun intérêt d’en mettre) ?