Pendant longtemps, j'ai cru que le coût élevé de l'IA était dû à la complexité du modèle lui-même. Après tout, entraîner un modèle nécessite une énorme puissance de calcul, et l'inférence dépend également de GPU coûteux. Cette explication semblait tout à fait logique.
Mais lorsque j'ai commencé à utiliser fréquemment différents services d'IA, j'ai lentement réalisé une chose : ce qui influence le prix n'est pas seulement la technologie elle-même, mais toute la structure qui l'entoure. Souvent, vous n'avez pas le choix : la plateforme décide quel modèle vous utilisez, la méthode de tarification, et fixe également le prix. Les utilisateurs ne peuvent qu'accepter, sans pouvoir participer. Cette structure ressemble davantage à l'Internet traditionnel qu'à un marché ouvert. C'est dans ce contexte que j'ai commencé à m'intéresser à @dgrid_ai. Ce qu'il essaie de faire est en fait très simple : libérer l'inférence IA des plateformes fermées, permettant aux nœuds de fournir de la puissance de calcul, et aux modèles de participer librement à l'exécution des tâches. Lorsque l'offre n'est plus contrôlée par quelques plateformes, le prix n'est plus fixé unilatéralement, mais se forme progressivement par le marché. Cela me rappelle le développement initial du cloud computing : au début, les ressources de calcul étaient coûteuses et concentrées, mais avec l'arrivée de plus en plus de fournisseurs sur le marché, les coûts ont commencé à diminuer continuellement, jusqu'à devenir aujourd'hui une infrastructure accessible à tous. À ce moment-là, j'ai vraiment compris que ce qui détermine le prix n'est pas seulement la technologie, mais la structure du marché elle-même. Si ce modèle peut continuer à se développer, l'inférence IA ne sera peut-être plus un service coûteux, mais deviendra une ressource de base comme la bande passante et le stockage. Pour l'utilisateur lambda, cela signifie une barrière d'entrée plus faible ; pour les développeurs, cela signifie aussi qu'ils ne seront plus liés à une plateforme unique. Ce changement ne se produira pas du jour au lendemain, mais la direction commence déjà à devenir claire. Le coût de l'IA ne sera peut-être plus toujours entre les mains de quelques entreprises. @Galxe @GalxeQuest @easydotfunX @wallchain #Ad #Affiliate
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Pendant longtemps, j'ai cru que le coût élevé de l'IA était dû à la complexité du modèle lui-même. Après tout, entraîner un modèle nécessite une énorme puissance de calcul, et l'inférence dépend également de GPU coûteux. Cette explication semblait tout à fait logique.
Mais lorsque j'ai commencé à utiliser fréquemment différents services d'IA, j'ai lentement réalisé une chose : ce qui influence le prix n'est pas seulement la technologie elle-même, mais toute la structure qui l'entoure.
Souvent, vous n'avez pas le choix : la plateforme décide quel modèle vous utilisez, la méthode de tarification, et fixe également le prix. Les utilisateurs ne peuvent qu'accepter, sans pouvoir participer. Cette structure ressemble davantage à l'Internet traditionnel qu'à un marché ouvert.
C'est dans ce contexte que j'ai commencé à m'intéresser à @dgrid_ai. Ce qu'il essaie de faire est en fait très simple : libérer l'inférence IA des plateformes fermées, permettant aux nœuds de fournir de la puissance de calcul, et aux modèles de participer librement à l'exécution des tâches.
Lorsque l'offre n'est plus contrôlée par quelques plateformes, le prix n'est plus fixé unilatéralement, mais se forme progressivement par le marché.
Cela me rappelle le développement initial du cloud computing : au début, les ressources de calcul étaient coûteuses et concentrées, mais avec l'arrivée de plus en plus de fournisseurs sur le marché, les coûts ont commencé à diminuer continuellement, jusqu'à devenir aujourd'hui une infrastructure accessible à tous.
À ce moment-là, j'ai vraiment compris que ce qui détermine le prix n'est pas seulement la technologie, mais la structure du marché elle-même.
Si ce modèle peut continuer à se développer, l'inférence IA ne sera peut-être plus un service coûteux, mais deviendra une ressource de base comme la bande passante et le stockage.
Pour l'utilisateur lambda, cela signifie une barrière d'entrée plus faible ; pour les développeurs, cela signifie aussi qu'ils ne seront plus liés à une plateforme unique.
Ce changement ne se produira pas du jour au lendemain, mais la direction commence déjà à devenir claire. Le coût de l'IA ne sera peut-être plus toujours entre les mains de quelques entreprises.
@Galxe @GalxeQuest @easydotfunX @wallchain #Ad #Affiliate