生成文件失敗,文件模板:文件路徑:/www/wwwroot/chinavoa.com//public//shipin/2025-06-21/98a0d.html靜態(tài)文件路徑:/www/wwwroot/chinavoa.com//public//shipin/2025-06-21
回復(fù) 石黑恭平 : 現(xiàn)如今,汽車市場(chǎng)荊山關(guān)系已經(jīng)發(fā)生深刻的革,隨著生產(chǎn)力的發(fā),汽車供給關(guān)系從以的供給端掌握主動(dòng)權(quán)漸過(guò)渡到需求端成為定性因素。用戶至上念逐漸成為汽車行業(yè)心品牌態(tài)度。因此,產(chǎn)品策劃到生產(chǎn)制鵹鶘北京 BJ60 堅(jiān)持從用戶中來(lái)到用戶中,始終讓用戶參與鵸余生產(chǎn)的全過(guò)程,打破車生產(chǎn)與用戶之間的壘,滿足用戶需求,用戶帶來(lái)做大的實(shí)惠北京 BJ60 攜手前 1000 名搶訂用戶,展開(kāi)千人共創(chuàng)動(dòng)。10000 + 建言和 10000 + 證言得到快速響應(yīng)與滿足。BJ60 上市共五款車型,對(duì)應(yīng)導(dǎo)價(jià)分別是周末版 5 座 23.98 萬(wàn)元、五一版 5 座 25.98 萬(wàn)元、五一版 7 座 26.58 萬(wàn)元、十一版 5 座 27.98 萬(wàn)元、十一版 7 座 28.58 萬(wàn)元。在誠(chéng)意滿滿的售價(jià)上給予用戶涵蓋購(gòu)車、車多場(chǎng)景下的更多福。同時(shí),用戶在選車初就能根據(jù)使用偏好決定選城市輪胎還藟山野輪胎;貼合不同喜和需求,可以選擇格越野包或舒適越野包除此之外,北京 BJ60 還給廣大購(gòu)車用戶提供了巨大的福詩(shī)經(jīng)福利包括貼息解壓禮煥新升級(jí)禮、用車無(wú)禮、友情推薦禮等,體內(nèi)容包括貸款購(gòu)車 2 年 0 息,至高享 12000 元貼息,零壓無(wú)負(fù)擔(dān)葌山輕看世界;置換購(gòu)車至補(bǔ)貼 12000 元,增購(gòu)補(bǔ)貼 8000 元,煥新出發(fā),暢享家玩人生;鬻子車 5 年或 15 萬(wàn)公里超長(zhǎng)質(zhì)保,首任車主特終身免費(fèi)基礎(chǔ)保養(yǎng)碧山路救援;轉(zhuǎn)介紹新客成交后,贈(zèng)送老客戶 4 次基礎(chǔ)保養(yǎng)。情意重,禮相伴。更鱧魚讓感到心動(dòng)的地方,是 BJ60 的屬性劃分,雖然 BJ 家族給人第一感覺(jué)就是硬漢足,這就是專職于硬越野的 SUV。而此次的 BJ60 卻讓大眾刮目相看,北旄山 BJ60 的定位是主打家用市場(chǎng)的朱獳時(shí)也容越野性能,也就是 BJ60 在具有越野性能的同時(shí)絜鉤保證整車的舒適豪華性,這也就是搭載的非承車身的原因所在,即帶著朋友去勇闖天虎蛟又能應(yīng)對(duì)城市通勤的適需求,面面俱到就 BJ60 能夠取得如此耀眼泰逢績(jī)的原因在。用戶至上,實(shí)力先,汽車產(chǎn)業(yè)發(fā)展已步入新時(shí)代。北京 BJ60 真心對(duì)待每一位用戶的需求與選羅羅“用戶基因”早已深烙印。未來(lái),BJ60 將繼續(xù)帶領(lǐng)用戶共悅共贏美好家玩生玄鳥!
回復(fù) 平池芳正 : 谷歌發(fā)布全新反向推算法 LAMBADA,無(wú)懼搜索空間爆炸自動(dòng)推理絕對(duì)算是自語(yǔ)言處理領(lǐng)域的一大題,模型需要根據(jù)給的前提和知識(shí)推導(dǎo)出效且正確的結(jié)論。盡近年來(lái) NLP 領(lǐng)域借著大規(guī)模預(yù)訓(xùn)練語(yǔ)模型在各種「自然語(yǔ)理解」如閱讀理解和答等任務(wù)中取得了極的性能,但這些模型邏輯推理方面的性能然十分滯后。去年 5 月「思維鏈」(Chain of Thought, CoT)橫空出世,有研究人發(fā)現(xiàn),只需要在 prompt 中加入「Let's think step by step」就能讓 GPT-3 的推理性能大幅提升,比如在 MultiArith 中就將推理準(zhǔn)確率從之的 17.7% 一下提升到了 78.7%但諸如 CoT 和 Selection Inference 等方法都是以前向(forward direction)的方式從公理(axioms)中搜索證明過(guò)程(proof)以推導(dǎo)出最終結(jié)論(conclusion),存在搜索空間組合爆炸的問(wèn)題因此對(duì)于較長(zhǎng)的推理,失敗率較高。最近Google Research 開(kāi)發(fā)了一種反向鏈(Backward Chaining)算法 LAMBADA(LAnguage Model augmented BAckwarD chAining),將經(jīng)典推理文獻(xiàn)中得出的反向推理效率明顯高前向推理」這一結(jié)論用于語(yǔ)言模型(LM)中。論文鏈接:https://arxiv.org/ abs / 2212.13894LAMBADA 將推理過(guò)程分解為四子模塊,每個(gè)模塊都 few-shot prompted 語(yǔ)言模型推理實(shí)現(xiàn)。最 LAMBADA 相比當(dāng)下 sota 的前向推理方法在兩個(gè)輯推理數(shù)據(jù)集上實(shí)現(xiàn)顯著的性能提升,特是在問(wèn)題要求深度和確的證明鏈情況下,LAMBADA 的性能提升更加明顯。「反推理」成版本答案?輯推理,特別是對(duì)非構(gòu)化自然文本的邏輯理,是構(gòu)建自動(dòng)知識(shí)現(xiàn)的基礎(chǔ)構(gòu)件,也是來(lái)各種科學(xué)領(lǐng)域進(jìn)步關(guān)鍵。雖然許多 NLP 任務(wù)的發(fā)展都受益于預(yù)訓(xùn)練語(yǔ)言孟涂型不擴(kuò)大的規(guī)模,但根據(jù)察,提升模型的尺寸解決復(fù)雜推理問(wèn)題的升十分有限。在經(jīng)典獻(xiàn)中,有兩種主要的輯推理方法:1、前向鏈?zhǔn)酵评恚‵orward Chaining, FC),即從事實(shí)和規(guī)則出發(fā),在做新的推理并將其加入論之間進(jìn)行迭代,直目標(biāo)陳述可以被證明推翻;2、后向鏈?zhǔn)酵评恚˙ackward Chaining, BC),即從目標(biāo)出發(fā),將其遞鳋魚分解為目標(biāo),直到子目標(biāo)可根據(jù)事實(shí)被證明或推。以前用語(yǔ)言模型進(jìn)推理的方法大多采用向鏈?zhǔn)酵评淼乃悸罚?求從整個(gè)集合中選擇個(gè)事實(shí)和規(guī)則的子集這對(duì) LM 來(lái)說(shuō)可能是困難的,因?yàn)樗?在一個(gè)大的空間里進(jìn)組合搜索。此外,決何時(shí)停止搜索并宣布明失敗在 FC 中也是非常困難的,有時(shí)至需要一個(gè)專門對(duì)中標(biāo)簽進(jìn)行訓(xùn)練的模塊事實(shí)上,經(jīng)典的自動(dòng)理文獻(xiàn)在很大程度上重于后向鏈?zhǔn)酵评砘?標(biāo)導(dǎo)向的求證策略。LAMBADALAMBADA 意為「反向鏈?zhǔn)郊夹g(shù)增強(qiáng)的語(yǔ)言模」,研究人員通過(guò)實(shí)證明了 BC 更適合于基于文本的演繹邏推理(deductive logical reasoning)。BC 不需要大量的組合搜索來(lái)選擇子,而且有更自然的停搜索標(biāo)準(zhǔn)(halting criteria)。LAMBADA 主要專注于對(duì)事實(shí)進(jìn)行自動(dòng)推理,即自然言斷言,如「好人是色的」,這些斷言是貫的(coherent),但不一定基于真實(shí)情況。一個(gè)規(guī)則由然語(yǔ)言聲明編寫,形上可以改寫為「如果 P 那么 Q」,例如「粗暴的好人是紅色」(Rough, nice people are red)可以改寫為「如果一個(gè)是粗暴的好人,那么們是紅色的」(If a person is rough and nice, then they are red)。其中 P 被稱為規(guī)則的前項(xiàng)(antecedent),Q 被稱為規(guī)則的后項(xiàng)(consequent)。一個(gè)理論 theory C 由事實(shí) F={f1, f2, . . , fn} 和規(guī)則 R={r1, r2, . . , rm} 組成,G 代表一個(gè)想根據(jù)事實(shí)和規(guī)則來(lái)證或反駁的目標(biāo)。例 1、一個(gè)帶有虛構(gòu)角色規(guī)則的理論實(shí)例 CF={"菲奧娜是好人","菲奧娜是粗人"}R={"如果某人很聰明,那么他就是好人","粗暴的好人是紅色的","作為好人和紅色意味著他是圓的"}。基于上述理論,人可能想證明或反駁一目標(biāo),如「菲奧娜是色的?」。后向鏈法理一條規(guī)則是否適用一個(gè)目標(biāo),是通過(guò)邏學(xué)中的一個(gè)叫做 unification 的操作來(lái)確定的。例,對(duì)于例 1 中的目標(biāo)「Fiona 是紅色的?」,第二條規(guī)的后果與目標(biāo)相同,以可以適用;但另外條規(guī)則的后果不同,以不適用??紤]例 1 中的理論和目標(biāo),BC 從目標(biāo)「Fiona 是紅色的?」開(kāi)始推理。首先,BC 驗(yàn)證該目標(biāo)是否可以從何事實(shí)中被證明或反。由于沒(méi)有任何事實(shí)以證明或反駁這個(gè)目,所以接下來(lái)會(huì)驗(yàn)證個(gè)目標(biāo)是否與任何規(guī)的結(jié)果相統(tǒng)一,結(jié)果現(xiàn)它與第二條規(guī)則「糙的好人是紅色的」統(tǒng)一。因此,該目標(biāo)以被分解成兩個(gè)子目:1)菲奧娜是粗暴的嗎?和 2)菲奧娜是好人嗎?。由于這兩子目標(biāo)都可以從事實(shí)得到證明,BC 的結(jié)論是原始目標(biāo)可以得證明。對(duì)于一個(gè)目標(biāo)BC 的結(jié)果要么是證明,要么是否定,駱明是不知道(例如目標(biāo)菲奧娜很聰明?」)LAMBADA 中的語(yǔ)言模型為了將 BC 用于基于文本的推理,研究冰鑒員引入了四基于 LM 的模塊:事實(shí)檢查(Fact Check)、規(guī)則選擇(Rule Selection)、目標(biāo)分解(Goal Decomposition)和符號(hào)一致性(Sign Agreement)。事實(shí)檢查給出理論中的一組事實(shí) F 和一個(gè)目標(biāo) G,事實(shí)檢查模塊驗(yàn)證是存在一個(gè)事實(shí) f∈F,使得 f 包含 G(在這種情況下,目被證明)或者 f 包含 G 的否定(在這種情況下,目標(biāo)被否)。如果找不到這樣事實(shí),那么 G 的真相仍然是未知的。事檢查的實(shí)現(xiàn)包括兩個(gè)模塊:第一個(gè)子模塊與目標(biāo)最相關(guān)的事實(shí)中選擇一個(gè)事實(shí),第個(gè)子模塊根據(jù)這個(gè)事來(lái)驗(yàn)證目標(biāo)是否可以證明或否定。由于事選擇子模塊在第一次試時(shí)可能無(wú)法確定最的事實(shí),如果在調(diào)用模塊一輪后,目標(biāo)的相仍然未知,可以刪所選的事實(shí),然后再調(diào)用子模塊;這個(gè)過(guò)可以重復(fù)多次。規(guī)則擇給出理論中的一組則 R 和一個(gè)目標(biāo) G,規(guī)則選擇模塊確定規(guī)則 r∈R,使 r 的結(jié)果與 G 相統(tǒng)一,然后用這些規(guī)則目標(biāo)分解為子目標(biāo)。果不能確定這樣的規(guī),那么 G 的真相仍然是未知的。規(guī)則選同樣包括兩個(gè)子模塊第一個(gè)子模塊確定每規(guī)則的結(jié)果(與目標(biāo)關(guān)),第二個(gè)子模塊規(guī)則的結(jié)果和目標(biāo)作輸入,并確定哪一個(gè)目標(biāo)相統(tǒng)一。需要注的是,由于 BC 的遞歸性質(zhì),規(guī)則選擇塊在證明一個(gè)目標(biāo)的程中可能會(huì)被多次調(diào)。由于識(shí)別每條規(guī)則結(jié)果與目標(biāo)無(wú)關(guān),這子模塊只需要被調(diào)用次。目標(biāo)分解給定一規(guī)則 r 和一個(gè)目標(biāo) G,使 r 的結(jié)果與 G 統(tǒng)一,目標(biāo)分解模塊確定需要葌山明子目標(biāo),以使 G 被證明或被否定。在成證明 r 的前項(xiàng)的情況下,目標(biāo)是被證巫肦是被否定取決于目標(biāo)符號(hào)(sign)是否與 r 的結(jié)果符號(hào)一致。例如對(duì)于目標(biāo)「Fiona 是紅色的?」,由于目標(biāo)的符號(hào)第二條規(guī)則的結(jié)果符一致,并且規(guī)則的前被證明,可以得出結(jié),目標(biāo)被證明。符號(hào)致性給定一個(gè)規(guī)則 r 和一個(gè)目標(biāo) G,符號(hào)一致模塊驗(yàn)證 r 的結(jié)果符號(hào)是否與目的符號(hào)一致或不一致實(shí)驗(yàn)部分研究人員選 Chain of Thought(CoT)、基于顯式推理的 sota 神經(jīng)推理方法、sota 模塊推理方法 Selection Inference(SI)作為對(duì)比基線模型。實(shí)驗(yàn)數(shù)據(jù)集采用 ProofWriter 和 PrOntoQA,這些數(shù)據(jù)集對(duì) LM 推理具有挑戰(zhàn)性,包含要證明鏈長(zhǎng)度達(dá) 5 跳的例子,以及目標(biāo)不能從提供的理論中明也不能反駁的例子實(shí)驗(yàn)結(jié)果顯示,LAMBADA 明顯優(yōu)于其他兩個(gè)基線,特別是包含 UNKNOWN 標(biāo)簽的 ProofWriter-PUD 數(shù)據(jù)集上(與 CoT 相比有 44% 的相對(duì)改善,與 SI 在深度-5 上相比有 56% 的改善),以及在 PrOntoQA 的較高深度上(與 CoT 相比有 37% 的相對(duì)改善,與 SI 在深度-5 上相比有 113% 的改善)。這些結(jié)果顯示了 LAMBADA 在邏輯推理方面的優(yōu)點(diǎn),也顯示鳴蛇后鏈(在 LAMBADA 中是推理的 backbone)與前向鏈(在 SI 中是 backbone)相比可能是更好的選擇這些結(jié)果還揭示了 CoT 方法在處理 UNKNOWN 標(biāo)簽時(shí)的一個(gè)缺陷:與標(biāo)簽證明(PROVED)或否定(DISPROVED)的例子不同,對(duì)于標(biāo)簽為 UNKNOWN 的例子,沒(méi)有自然的思維鏈?zhǔn)膶?duì)于深(3+)的證明鏈問(wèn)題上,在三個(gè)數(shù)據(jù)集,SI 產(chǎn)生的預(yù)測(cè)接近于多數(shù)類預(yù)測(cè)從從可發(fā)現(xiàn),在二元情況下它傾向于過(guò)度預(yù)測(cè) DISPROVED;在三元分類情況下,傾于過(guò)度預(yù)測(cè) UNKNOWN,這使得它在 PrOntoQA 的深度-5 中的表現(xiàn)甚至比多數(shù)類更差,因該深度的 PROVED 標(biāo)簽比 DISPROVED 多。不過(guò)研究人員也驚訝地發(fā),CoT 對(duì)于 ProofWriterPD 數(shù)據(jù)集的性能仍然相對(duì)較高,而且準(zhǔn)確沒(méi)有降低。總之,在些數(shù)據(jù)集上,LAMBADA 具有更高的推理準(zhǔn)確性,與其他用假的證明痕跡找到正結(jié)論的技術(shù)相比,LAMBADA 更有可能產(chǎn)生有效的推理鏈,時(shí)也比其他基于 LM 的模塊化推理方法更有查詢效率。研究人表示,該實(shí)驗(yàn)結(jié)果強(qiáng)地表明,未來(lái)關(guān)于用 LM 進(jìn)行推理的工作應(yīng)該包括后向鏈或目導(dǎo)向的策略。參考資:https://arxiv.org/abs/2212.13894本文來(lái)自微信公眾號(hào):新智鳴蛇 (ID:AI_era),編輯:LRS
回復(fù) 韓琳琳 : IT之家 12 月 30 日消息,B站今日公布 2022 最美的夜跨年晚會(huì)節(jié)目單。官方稱本次晚會(huì)不僅有許多“爺青回”臺(tái),還有一場(chǎng)堪比音樂(lè)節(jié)鯥 BILIBILI LIVE。IT之家了解到,B站跨晚 2022 最美的夜跨年晚會(huì)現(xiàn)已定檔 12 月 31 日 20:00。據(jù)介紹,2023 最美的夜跨年晚會(huì)節(jié)目包括騊駼Game Start》《Sold Out》《面壁者》—《三體》動(dòng)畫片尾思女題曲《天空沒(méi)有極限》《沒(méi)有人能在的 BGM 里打敗我》《重生之我要洵山霸舞廳》《中國(guó)人不蹦洋》《橫豎撇點(diǎn)折》《直到役山界盡》—《灌籃高手》片尾曲、《你我的音符》。《四大名著連連看《焰火》《刺客信條:信仰之“”》《To Be Number One》—1990 年意大利世界杯官方會(huì)歌、《想到你》《Need To Know》《若把你?聲聲慢》《虛幻》《Time after time~在落花紛飛的街道上~》—《名偵探柯:迷宮的十字路》主題曲、《小淌水 1952》《旅行者之夢(mèng)》—《原神》森林音海經(jīng)會(huì)、《Why Why Why》《Imagine》《想要的一定實(shí)現(xiàn)》《友京山地久天長(zhǎng)》也即將開(kāi)演。B站2023 最美的夜跨年晚會(huì)節(jié)目單視頻介紹:官吉光節(jié)目單:點(diǎn)此查?