ByteDance et l’Université du Zhejiang ont lancé conjointement Vista-LLaMA, un grand modèle de langage multimodal capable d’interpréter le contenu vidéo

Bit ByteDance s’est associé à l’Université du Zhejiang pour lancer Vista-LLaMA, un grand modèle de langage multimodal conçu pour la compréhension du contenu vidéo et capable de produire des descriptions vidéo de haute qualité. Grâce à un traitement visuel et verbal innovant des jetons, Vista-LLaMA résout le problème des « hallucinations » dans le contenu vidéo.

Vista-LLaMA excelle dans plusieurs tests de questions-réponses vidéo ouvertes, en particulier dans les tests NExT-QA et MSRVTT-QA. Il a atteint un taux de précision de 60,7 % dans le test NExT-QA à injection zéro et de 60,5 % dans le test MSRVTT-QA, surpassant toutes les méthodes SOTA actuelles. Ces résultats démontrent l’efficacité et la précision de Vista-LLaMA dans la compréhension du contenu vidéo et la génération de descriptions.

TOKEN-3.37%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 1
  • Reposter
  • Partager
Commentaire
0/400
TalkingAboutCurrencyvip
· 2024-03-14 21:37
Stud All in 🙌
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)