La startup israélienne d’IA médicale Aidoc lève $150M , menée par un fonds de Goldman Sachs

Selon Axios, la startup israélienne d’IA pour l’imagerie médicale Aidoc a levé $150 million lors d’une levée de fonds menée par un fonds géré par Goldman Sachs, moins d’un an après sa précédente levée. Cette levée porte le capital total d’Aidoc à plus de $500 million. Parmi les investisseurs figurent aussi NVentures, la division de Nvidia, General Catalyst et Amazon Web Services. Aidoc utilisera le produit de la levée pour développer CARE, un modèle de base entraîné sur des dizaines de millions de scans médicaux. La FDA a approuvé 11 nouvelles indications pour CARE en janvier 2026, portant le nombre total d’approbations d’Aidoc à plus de 30. Les outils de la société sont actuellement déployés dans plus de 1 600 centres médicaux dans le monde.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Forefront Tech finalise la tarification de l’$100M IPO, une cotation au Nasdaq sous le code FTHAU

D’après ChainCatcher, la société d’acquisition à vocation spécifique Forefront Tech a finalisé la tarification de son introduction en bourse (IPO) de 100 millions de dollars le 30 avril et sera cotée au Nasdaq sous le symbole boursier FTHAU. La société prévoit d’utiliser le produit de l’opération pour saisir des opportunités de fusions-acquisitions dans le secteur de la blockchain, de la fintech, de l’intelligence artificielle et

GateNewsIl y a 1h

Anthropic Claude facture à un utilisateur 200,98 dollars en trop en raison d’un bug de facturation, et le remboursement a d’abord été refusé avant une compensation intégrale

D’après la surveillance de Beating, un bug de facturation dans le service Anthropic Claude Code a entraîné une surfacturation de Max 20x à hauteur de 200,98 dollars de frais d’utilisation supplémentaires, alors que le client n’utilisait que 13% de son quota mensuel. Le bug a été déclenché lorsque l’historique des commits du dépôt git d’un utilisateur contenait le caractère en majuscule

GateNewsIl y a 1h

DeepSeek Introduit une méthode de primitives visuelles pour améliorer le raisonnement multimodal le 30 avril

D’après le rapport technique de DeepSeek, le 30 avril, l’entreprise a introduit Visual Primitives, une méthode qui intègre des unités visuelles de base telles que des points et des boîtes englobantes dans des chaînes de raisonnement afin de résoudre le problème de l’écart de référence dans les tâches multimodales. La méthode réduit la consommation de jetons d’images

GateNewsIl y a 1h

NVIDIA publie les poids du modèle phare Cosmos-Reason2-32B et étend la fenêtre de contexte à 256 000 jetons

D’après Beating, NVIDIA a publié les poids de Cosmos-Reason2-32B, la version phare de son modèle de vision-langage (VLM) de raisonnement par IA physique, conçu pour aider les robots et les systèmes de conduite autonome à comprendre les principes spatiaux, temporels et physiques. Le modèle de 32 milliards de paramètres,

GateNewsIl y a 2h

OpenAI révèle pourquoi Codex interdit de parler de « gobelins » : la récompense de personnalité « nerd » a dérapé

OpenAI explique dans son blog officiel que Codex interdit de parler de gobelins et autres créatures, à cause d’un signal de récompense favorisant des métaphores de créatures lors de l’entraînement des traits « nerd », ce qui a entraîné une contamination entre personnalités et une dérive du RLHF. L’incident a été révélé par Barron Roth après la fuite des instructions système, et OpenAI a alors adopté deux stratégies : un codage dur à court terme et une suppression à long terme des signaux de récompense. Cela met en garde contre la fragilité de la conception des récompenses, et souligne que les audits post-entraînement doivent être plus précis.

ChainNewsAbmediaIl y a 2h

Alibaba ouvre en open-source le module d’interprétabilité Qwen-Scope, couvrant 7 modèles, le 30 avril

Selon PANews, le 30 avril, Alibaba a annoncé via Qwen l’ouverture du code de Qwen-Scope, un module d’interprétabilité entraîné sur les modèles des séries Qwen3 et Qwen3.5. La publication couvre 7 grands modèles de langage dans des variantes denses et de type mixture-of-experts, avec 14 ensembles d’autoencodeurs clairsemés

GateNewsIl y a 3h
Commentaire
0/400
Aucun commentaire