⏰ 倒計時 2 天開啓!💥 Gate 廣場活動:#发帖赢代币TRUST 💥
展示你的創意贏取獎勵
在 Gate 廣場發布與 TRUST 或 CandyDrop 活動 相關的原創內容,就有機會瓜分 13,333 枚 TRUST 獎勵!
📅 活動時間:2025年11月6日 – 11月16日 24:00(UTC+8)
📌 活動詳情:
CandyDrop 👉 https://www.gate.com/zh/announcements/article/47990
📌 參與方式:
1️⃣ 在 Gate 廣場發布原創內容,主題需與 TRUST 或 CandyDrop 活動相關;
2️⃣ 內容不少於 80 字;
3️⃣ 帖子添加話題:#發帖贏代幣TRUST
4️⃣ 附上任意 CandyDrop 活動參與截圖
🏆 獎勵設置(總獎池:13,333 TRUST)
🥇 一等獎(1名):3,833 TRUST / 人
🥈 二等獎(3名):1,500 TRUST / 人
🥉 三等獎(10名):500 TRUST / 人
位元組跳動和USTC聯合提出了DocPedia,一個大型多模式文檔模型
位元組跳動與中國科學技術大學聯合開發的多模態文檔模型DocPedia成功突破解析度極限,達到2560×2560的高解析度,而LLaVA、MiniGPT-4等業界先進的多模態大型模型則以336×336的解析度處理圖像,無法解析高解析度文檔圖像。 其結果是,研究團隊採用了一種新的方法來解決現有模型在解析高解析度文檔圖像方面的缺點。
據說DocPedia不僅可以準確識別圖像資訊,還可以調用知識庫根據使用者需求回答問題,展示了理解高解析度多模態文檔的能力。