La startup d'IA Nexa.ai a annoncé que son outil d'agent IA local, « Hyperlink », est désormais optimisé pour les PC équipés de cartes graphiques NVIDIA RTX. Tirant parti de la puissance de calcul des GPU GeForce RTX, cette nouvelle application triple la vitesse d'indexation RAG (Retrieval Augmentation) et double celle d'inférence LLM, répondant ainsi aux problématiques des modèles de langage traditionnels à grande échelle qui ne prennent pas en compte le contexte local défini par l'utilisateur.
Pour remédier au problème de « l'IA qui ne comprend pas votre ordinateur », nous privilégions la compréhension sémantique plutôt que les mots-clés.
Bien que les chatbots IA actuels soient performants, leurs réponses manquent souvent de précision car ils ne peuvent accéder aux informations cachées dans les fichiers PDF, PPT, notes ou images sur l'ordinateur de l'utilisateur. Hyperlink, en revanche, est conçu pour créer un index local des fichiers, permettant ainsi à l'IA de comprendre l'intention de l'utilisateur et le contexte de sa requête, au lieu de se fier uniquement à une comparaison de mots-clés classique.
Par exemple, lorsqu'un utilisateur demande de l'aide pour rédiger « un compte rendu de lecture comparant les thèmes de deux romans de science-fiction », Hyperlink peut trouver des informations pertinentes grâce à l'analyse sémantique, même si le nom du fichier contenant le contenu est totalement hors sujet, comme « Lit_Homework_Final.docx », il peut tout de même le localiser avec précision.
Grâce à la carte graphique RTX 5090, l'indexation de 1 Go de données ne prend que 5 minutes.
Concernant les améliorations de performances, Nexa.ai a déclaré que des tests de référence effectués sur une carte graphique NVIDIA RTX 5090 ont montré qu'auparavant, il fallait environ 15 minutes pour indexer un dossier haute densité de 1 Go, mais qu'après l'optimisation RTX AI PC, Hyperlink ne nécessite plus que 4 à 5 minutes pour terminer l'indexation.
Cela signifie que les utilisateurs peuvent transformer plus rapidement les données locales en informations en temps réel exploitables par l'IA, et grâce à la vitesse de raisonnement accrue du LLM, les réponses aux questions et aux questions peuvent être encore plus immédiates.
Toutes les données sont traitées sur site, ciblant les scénarios commerciaux, académiques et de développement.
La confidentialité et la sécurité constituent un autre argument de vente majeur d'Hyperlink. L'entreprise souligne que toutes les données utilisateur sont stockées localement sur l'appareil, ce qui élimine la nécessité de télécharger des fichiers personnels sur le cloud et garantit la confidentialité des informations sensibles.
Hyperlink a actuellement identifié un large éventail de scénarios d'application, notamment :
• Préparation de la réunion : Compilez les points clés des notes et de la transcription intégrale.
• Analyse du rapport : Apportez des réponses étayées par des preuves, en citant des données issues de rapports sectoriels.
• Apprentissage efficace : Recherche en un clic des points clés des notes de cours et du matériel pédagogique.
• Accélérer le débogage : Effectuez une recherche dans les fichiers et les annotations de code pour localiser les conflits de versions.
L'application Hyperlink est disponible au téléchargement dès aujourd'hui, et les utilisateurs équipés de cartes graphiques NVIDIA RTX pourront profiter d'une expérience de recherche IA optimisée.




