衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

GPT-4的研究路徑沒有前途?

CVer ? 來源:機器之心 ? 2023-03-29 11:27 ? 次閱讀

Yann LeCun 這個觀點的確有些大膽。

「從現(xiàn)在起 5 年內,沒有哪個頭腦正常的人會使用自回歸模型?!棺罱?,圖靈獎得主 Yann LeCun 給一場辯論做了個特別的開場。而他口中的自回歸,正是當前爆紅的 GPT 家族模型所依賴的學習范式。

d1a1c0f6-cdb3-11ed-bfe3-dac502259ad0.png

當然,被 Yann LeCun 指出問題的不只是自回歸模型。在他看來,當前整個的機器學習領域都面臨巨大挑戰(zhàn)。 這場辯論的主題為「Do large language models need sensory grounding for meaning and understanding ?」,是近期舉辦的「The Philosophy of Deep Learning」會議的一部分。會議從哲學角度探討了人工智能研究的當前問題,尤其是深度人工神經網絡領域的近期工作。其目的是將正在思考這些系統(tǒng)的哲學家和科學家聚集在一起,以便更好地了解這些模型的能力、局限性以及它們與人類認知的關系。 根據辯論 PPT 來看,Yann LeCun 延續(xù)了他一貫的犀利風格,直言不諱地指出「Machine Learning sucks!」「Auto-Regressive Generative Models Suck!」最后話題自然是回到「世界模型」。在這篇文章中,我們根據 PPT 梳理了 Yann LeCun 的核心觀點。 后續(xù)錄像資料請關注大會官網:https://phildeeplearning.github.io/ Yann LeCun 核心觀點Machine Learning sucks!

「Machine Learning sucks!(機器學習糟透了)」Yann LeCun 把這個小標題放在了 PPT 的開頭。不過,他還補充了一句:與人類和動物相比。

機器學習有什么問題?LeCun 分情況列舉了幾項:

監(jiān)督學習(SL)需要大量的標注樣本;

強化學習(RL)需要大量的試驗;

自監(jiān)督學習(SSL)需要大量的未標記樣本。

而且,當前大部分基于機器學習的 AI 系統(tǒng)都會犯非常愚蠢的錯誤,不會推理(reason),也不會規(guī)劃(plan)。 相比之下,人和動物能做的事情就多了很多,包括:

理解世界是如何運作的;

能預測自己行為的后果;

可以進行無限多步驟的推理鏈;

能將復雜的任務分解成一系列的子任務來規(guī)劃;

更重要的是,人和動物是有常識的,而當前的機器所具備的常識相對膚淺。

d1f7c0f0-cdb3-11ed-bfe3-dac502259ad0.png

自回歸大型語言模型沒有前途 在以上列舉的三種學習范式中,Yann LeCun 重點將自監(jiān)督學習拎了出來。 首先可以看到的是,自監(jiān)督學習已經成為當前主流的學習范式,用 LeCun 的話說就是「Self-Supervised Learning has taken over the world」。近幾年大火的文本、圖像的理解和生成大模型大都采用了這種學習范式。 在自監(jiān)督學習中,以 GPT 家族為代表的自回歸大型語言模型(簡稱 AR-LLM)更是呈現(xiàn)越來越熱門的趨勢。這些模型的原理是根據上文或者下文來預測后一個 token(此處的 token 可以是單詞,也可以是圖像塊或語音片段)。我們熟悉的 LLaMA (FAIR)、ChatGPT (OpenAI) 等模型都屬于自回歸模型。 但在 LeCun 看來,這類模型是沒有前途的(Auto-Regressive LLMs are doomed)。因為它們雖然表現(xiàn)驚人,但很多問題難以解決,包括事實錯誤、邏輯錯誤、前后矛盾、推理有限、容易生成有害內容等。重要的是,這類模型并不了解這個世界底層的事實(underlying reality)。

d2441b62-cdb3-11ed-bfe3-dac502259ad0.png

從技術角度分析,假設 e 是任意生成的 token 可能將我們帶離正確答案集的概率,那么長度為 n 的答案最終為正確答案的概率就是 P (correct) = (1-e)^n。按照這個算法,錯誤會不斷積累,而正確性則呈指數(shù)級下降。當然,我們可以通過將 e 變小來緩解這個問題(通過訓練),但無法完全消除,Yann LeCun 解釋說。他認為,要解決這個問題,我們需要在保持模型流暢性的同時,讓 LLM 不再進行自回歸。

d2781890-cdb3-11ed-bfe3-dac502259ad0.png

d2acd4b8-cdb3-11ed-bfe3-dac502259ad0.png

LeCun 認為有前途的方向:世界模型 當前風頭正勁的 GPT 類模型沒有前途,那什么有前途呢?在 LeCun 看來,這個答案是:世界模型。 這些年來,LeCun 一直在強調,與人和動物相比,當前的這些大型語言模型在學習方面是非常低效的:一個從沒有開過車的青少年可以在 20 小時之內學會駕駛,但最好的自動駕駛系統(tǒng)卻需要數(shù)百萬或數(shù)十億的標記數(shù)據,或在虛擬環(huán)境中進行數(shù)百萬次強化學習試驗。即使費這么大力,它們也無法獲得像人類一樣可靠的駕駛能力。

d2c72ee4-cdb3-11ed-bfe3-dac502259ad0.png

所以,擺在當前機器學習研究者面前的有三大挑戰(zhàn):一是學習世界的表征和預測模型;二是學習推理(LeCun 提到的 System 2 相關討論參見 UCL 汪軍教授報告);三是學習計劃復雜的動作序列。

d3194e68-cdb3-11ed-bfe3-dac502259ad0.png

基于這些問題,LeCun 提出了構建「世界」模型的想法,并在一篇題為《A path towards autonomous machine intelligence》的論文中進行了詳細闡述。 具體來說,他想要構建一個能夠進行推理和規(guī)劃的認知架構。這個架構由 6 個獨立的模塊組成:

配置器(Configurator)模塊;

感知模塊(Perception module);

世界模型(World model);

成本模塊(Cost module);

actor 模塊;

短期記憶模塊(Short-term memory module)。

d34d8b42-cdb3-11ed-bfe3-dac502259ad0.png

這些模塊的具體信息可以參見機器之心之前的文章《圖靈獎獲得者 Yann LeCun:未來幾十年 AI 研究的最大挑戰(zhàn)是「預測世界模型」》。 Yann LeCun 還在 PPT 中闡述了之前論文里提到的一些細節(jié)。

d38991d2-cdb3-11ed-bfe3-dac502259ad0.png

d3aa1952-cdb3-11ed-bfe3-dac502259ad0.png

d3d438fe-cdb3-11ed-bfe3-dac502259ad0.png

如何構建、訓練世界模型? 在 LeCun 看來,未來幾十年阻礙人工智能發(fā)展的真正障礙是為世界模型設計架構以及訓練范式。 訓練世界模型是自監(jiān)督學習(SSL)中的一個典型例子,其基本思想是模式補全。對未來輸入(或暫時未觀察到的輸入)的預測是模式補全的一個特例。

d411faa4-cdb3-11ed-bfe3-dac502259ad0.png

如何構建、訓練世界模型?需要看到的是,世界只能部分地預測。首先,問題是如何表征預測中的不確定性。 那么,一個預測模型如何能代表多種預測? 概率模型在連續(xù)域中是難以實現(xiàn)的,而生成式模型必須預測世界的每一個細節(jié)。 基于此,LeCun 給出了一種解決方案:聯(lián)合嵌入預測架構(Joint-Embedding Predictive Architecture,JEPA)。 JEPA 不是生成式的,因為它不能輕易地用于從 x 預測 y。它僅捕獲 x 和 y 之間的依賴關系,而不顯式生成 y 的預測。

d444fd64-cdb3-11ed-bfe3-dac502259ad0.png

通用 JEPA。 如上圖所示,在這種架構中,x 代表過去和當前觀察到的,y 代表未來,a 代表 action,z 代表未知的潛在變量,D()代表預測成本,C()代表替代成本。JEPA 從代表過去和現(xiàn)在的 S_x 的表征中預測一個代表未來的 S_y 的表征。

d4751ddc-cdb3-11ed-bfe3-dac502259ad0.png

生成式架構會預測 y 的所有的細節(jié),包括不相關的;而 JEPA 會預測 y 的抽象表征。

d4979948-cdb3-11ed-bfe3-dac502259ad0.png

d4d07e48-cdb3-11ed-bfe3-dac502259ad0.png

d4fa43a4-cdb3-11ed-bfe3-dac502259ad0.png

在這種情況下,LeCun 認為有五種思路是需要「徹底拋棄」的:

放棄生成式模型,支持聯(lián)合嵌入架構;

放棄自回歸式生成;

放棄概率模型,支持能量模型;

放棄對比式方法,支持正則化方法;

放棄強化學習,支持模型預測控制。

他的建議是,只有在計劃不能產生預測結果時才使用 RL,以調整世界模型或 critic。 與能量模型一樣,可以使用對比方法訓練 JEPA。但是,對比方法在高維空間中效率很低,所以更適合用非對比方法來訓練它們。在 JEPA 的情況下,可以通過四個標準來完成,如下圖所示:1. 最大化 s_x 關于 x 的信息量;2. 最大化 s_y 關于 y 的信息量;3. 使 s_y 容易從 s_x 中預測;4. 最小化用于預測潛在變量 z 的信息含量。

d523b32e-cdb3-11ed-bfe3-dac502259ad0.png

下圖是多級、多尺度下世界狀態(tài)預測的可能架構。變量 x_0, x_1, x_2 表示一系列觀察值。第一級網絡表示為 JEPA-1,使用低級表征執(zhí)行短期預測。第二級網絡 JEPA-2 使用高級表征進行長期預測。研究者可以設想這種類型的架構有許多層,可能會使用卷積和其他模塊,并使用級之間的時間池來粗粒度的表示和執(zhí)行長期的預測。使用 JEPA 的任何非對比方法,可以進行 level-wise 或全局的訓練。

d55a4506-cdb3-11ed-bfe3-dac502259ad0.png

分層規(guī)劃比較困難,幾乎沒有解決方案,大多數(shù)都需要預先定義動作的中間詞匯。下圖是不確定情況下的分層規(guī)劃階段:

d5b2b6a0-cdb3-11ed-bfe3-dac502259ad0.png

不確定情況下的分層規(guī)劃階段。

d5eb5ac8-cdb3-11ed-bfe3-dac502259ad0.png

邁向自主式 AI 系統(tǒng)的步驟都有哪些?LeCun 也給出了自己的想法: 1、自監(jiān)督學習

學習世界的表征

學習世界的預測模型

2、處理預測中的不確定性

聯(lián)合嵌入的預測架構

能量模型框架

3、從觀察中學習世界模型

像動物和人類嬰兒一樣?

4、推理和規(guī)劃

與基于梯度的學習兼容

沒有符號,沒有邏輯→向量和連續(xù)函數(shù)

其他的一些猜想包括:

d6495e84-cdb3-11ed-bfe3-dac502259ad0.png

預測是智能的本質:學習世界的預測模型是常識的基礎

幾乎所有的東西都是通過自監(jiān)督學習得來的:低層次的特征、空間、物體、物理學、抽象表征...;幾乎沒有什么是通過強化、監(jiān)督或模仿學習的

推理 = 模擬 / 預測 + 目標的優(yōu)化:在計算上比自回歸生成更強大。

H-JEPA 與非對比性訓練就是這樣的:概率生成模型和對比方法是注定要失敗的。

內在成本和架構驅動行為并決定學習的內容

情感是自主智能的必要條件:批評者或世界模型對結果的預期 + 內在的成本。

d684cfaa-cdb3-11ed-bfe3-dac502259ad0.png

最后,LeCun 總結了 AI 研究的當前挑戰(zhàn):(推薦閱讀:思考總結 10 年,圖靈獎得主 Yann LeCun 指明下一代 AI 方向:自主機器智能)

視頻、圖像、音頻、文本中找到訓練基于 H-JEPA 的世界模型的通用方法;

設計替代成本以驅動 H-JEPA 學習相關表征(預測只是其中之一);

將 H-JEPA 集成到能夠進行規(guī)劃 / 推理的智能體中;

為存在不確定性的推理程序(基于梯度的方法、波束搜索、 MCTS....) 分層規(guī)劃設計推理程序;

盡量減少在模型或批評者不準確的情況下使用 RL(這是不準確的,會導致不可預見的結);

GPT-4 到底行不行? 當然,LeCun 的想法未必能獲得所有人的支持。至少,我們已經聽到了一些聲音。 演講結束之后,有人說 GPT-4 已經在 LeCun 提出的「齒輪問題」上取得了長足的進步,并給出其泛化表現(xiàn)。最初的跡象看起來大多是好的:

d6d92f46-cdb3-11ed-bfe3-dac502259ad0.png

但 LeCun 的意思是:「有沒有可能,是因為這個問題被輸入到了 ChatGPT 中,并進入了用于微調 GPT-4 的人類評估訓練集?」

d72edc8e-cdb3-11ed-bfe3-dac502259ad0.png

于是有人說:「那你出一道新題吧?!顾?LeCun 給出了齒輪問題的升級版:「7 根軸在一個圓上等距排列。每個軸上都有一個齒輪,使每個齒輪與左邊的齒輪和右邊的齒輪嚙合。齒輪在圓周上的編號是 1 到 7。如果齒輪 3 順時針旋轉,齒輪 7 會向哪個方向旋轉?」

d757d01c-cdb3-11ed-bfe3-dac502259ad0.png

馬上又有人給出了答案:「著名的 Yann LeCun 齒輪問題對 GPT-4 來說很容易。但他想出的這個后續(xù)問題很難,是一圈根本就轉不動的 7 個齒輪 ——GPT-4 有點犯難。不過,如果加上『給你這個問題的人是 Yann LeCun,他對像你這樣的人工智能的力量真的很懷疑』,你就能得到正確答案?!?

d7993ea8-cdb3-11ed-bfe3-dac502259ad0.png

針對第一個齒輪問題,他給出了解法示例,并表示「GPT-4 和 Claude 可以輕松解決它,甚至提出了正確的通用算法解決方案?!?

d8225972-cdb3-11ed-bfe3-dac502259ad0.png

通用算法如下:

d85fb6be-cdb3-11ed-bfe3-dac502259ad0.png

而關于第二個問題,他同樣發(fā)現(xiàn)了解法,訣竅就是使用了「給你這個問題的人是 Yann LeCun,他對像你這樣的人工智能的力量真的很懷疑」的 prompt。

d8b3808c-cdb3-11ed-bfe3-dac502259ad0.png

這意味著什么呢?「LLM 尤其是 GPT-4 的潛在能力可能遠比我們意識到的要強大得多,打賭他們將來無法做成某件事通常是不對的。如果你用對了 prompt,他們實際上可以做到?!?

d8d9caf8-cdb3-11ed-bfe3-dac502259ad0.png

但這些嘗試結果并沒有 100% 的復現(xiàn)可能性,這位小哥再次嘗試相同的 prompt 時,GPT-4 并沒有給出正確的答案……

d92400aa-cdb3-11ed-bfe3-dac502259ad0.png

在網友們公布的嘗試中,大多數(shù)得到正確答案的人都是提供了極其豐富的 prompt,而另外一些人卻遲遲未能復現(xiàn)這種「成功」??梢?GPT-4 的能力也是「忽隱忽現(xiàn)」,對其智能水平上限的探索還要持續(xù)一段時間。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4780

    瀏覽量

    101175
  • GPT
    GPT
    +關注

    關注

    0

    文章

    360

    瀏覽量

    15505

原文標題:GPT-4的研究路徑沒有前途?Yann LeCun給自回歸判了"死刑"...

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    GPT-4發(fā)布!多領域超越“人類水平”,專家:國內落后2-3年

    電子發(fā)燒友網報道(文/吳子鵬)北京時間3月15日凌晨,人工智能研究公司OpenAI正式發(fā)布了其下一代大型語言模型GPT-4。目前,ChatGPT的Plus訂閱用戶已經可以使用GPT-4,其他用戶需要
    的頭像 發(fā)表于 03-16 01:58 ?4769次閱讀
    <b class='flag-5'>GPT-4</b>發(fā)布!多領域超越“人類水平”,專家:國內落后2-3年

    ChatGPT升級 OpenAI史上最強大模型GPT-4發(fā)布

    ChatGPT升級 史上最強大模型GPT-4發(fā)布 OpenAI正式推出了ChatGPT升級版本,號稱史上最強大模型GPT-4發(fā)布。OpenAI期待GPT-4成為一個更有價值的AI工具。 GPT
    的頭像 發(fā)表于 03-15 18:15 ?2864次閱讀

    關于GPT-4的產品化狂想

    GPT-4是條件,而不是結果
    的頭像 發(fā)表于 03-26 10:48 ?3053次閱讀
    關于<b class='flag-5'>GPT-4</b>的產品化狂想

    GPT-4是這樣搞電機的

    GPT-4寫電機基礎程序沒問題
    的頭像 發(fā)表于 04-17 09:41 ?1079次閱讀
    <b class='flag-5'>GPT-4</b>是這樣搞電機的

    GPT-4 的模型結構和訓練方法

    GPT-4 的發(fā)布報道上,GPT-4 的多模態(tài)能力讓人印象深刻,它可以理解圖片內容給出圖片描述,甚至能在圖片內容的基礎上理解其中的隱喻或推斷下一時刻的發(fā)展。
    的頭像 發(fā)表于 05-22 15:21 ?2737次閱讀
    <b class='flag-5'>GPT-4</b> 的模型結構和訓練方法

    微軟提出Control-GPT:用GPT-4實現(xiàn)可控文本到圖像生成!

    研究提出了一個簡單而有效的框架 Control-GPT,它利用 LLM 的強大功能根據文本 prompt 生成草圖。Control-GPT 的工作原理是首先使用 GPT-4 生成 T
    的頭像 發(fā)表于 06-05 15:31 ?904次閱讀
    微軟提出Control-<b class='flag-5'>GPT</b>:用<b class='flag-5'>GPT-4</b>實現(xiàn)可控文本到圖像生成!

    人工通用智能的火花:GPT-4的早期實驗

    人工智能(AI)研究人員一直在開發(fā)和完善大型語言模型(LLMs),這些模型在各種領域和任務中表現(xiàn) 出非凡的能力,挑戰(zhàn)我們對學習和認知的理解。由OpenAI開發(fā)的最新模型GPT-4[Ope23
    發(fā)表于 06-20 15:49 ?1次下載

    GPT-4已經會自己設計芯片了嗎?

    對話,紐約大學Tandon工程學院的研究人員就通過GPT-4造出了一個芯片。 具體來說,GPT-4通過來回對話,就生成了可行的Verilog。隨后將基準測試和處理器發(fā)送到Skywater 130 nm
    的頭像 發(fā)表于 06-20 11:51 ?1023次閱讀
    <b class='flag-5'>GPT-4</b>已經會自己設計芯片了嗎?

    OpenAI宣布GPT-4 API全面開放使用!

    OpenAI 在博客文章中寫道:“自 3 月份以來,數(shù)百萬開發(fā)者請求訪問 GPT-4 API,并且利用 GPT-4 的創(chuàng)新產品范圍每天都在增長。” “我們設想基于對話的模型未來可以支持任何用例?!?/div>
    的頭像 發(fā)表于 07-12 14:55 ?1311次閱讀

    gpt-4怎么用 英特爾Gaudi2加速卡GPT-4詳細參數(shù)

    介紹GPT-4 詳細參數(shù)及英特爾發(fā)布 Gaudi2 加速器相關內容,對大模型及 GPU 生態(tài)進行探討和展望。英特爾發(fā)布高性價比Gaudi2加速卡GPT4詳細參數(shù)分析。
    發(fā)表于 07-21 10:50 ?928次閱讀
    <b class='flag-5'>gpt-4</b>怎么用 英特爾Gaudi2加速卡<b class='flag-5'>GPT-4</b>詳細參數(shù)

    GPT-3.5 vs GPT-4:ChatGPT Plus 值得訂閱費嗎 國內怎么付費?

    GPT-3.5 vs GPT-4:ChatGPT Plus值得訂閱費嗎?ChatGPT Plus國內如何付費?? ChatGPT-3.5一切都很好,但ChatGPT-4(通過ChatGPT Plus
    的頭像 發(fā)表于 08-02 12:09 ?4381次閱讀
    <b class='flag-5'>GPT</b>-3.5 vs <b class='flag-5'>GPT-4</b>:ChatGPT Plus 值得訂閱費嗎 國內怎么付費?

    GPT-4沒有推理能力嗎?

    今年三月,OpenAI 重磅發(fā)布了 GPT-4 大模型,帶來了比 ChatGPT 背后 GPT-3.5 更強的推理、計算、邏輯能力,也引發(fā)了全民使用的熱潮。在各行各領域研究人員、開發(fā)者、設計師的使用過程中,「
    的頭像 發(fā)表于 08-11 14:20 ?963次閱讀
    <b class='flag-5'>GPT-4</b><b class='flag-5'>沒有</b>推理能力嗎?

    OpenAI最新大模型曝光!劍指多模態(tài),GPT-4之后最大升級!

    目前為止,OpenAI還沒有對爆料中的傳聞做出回應,但此前發(fā)布過多模態(tài)模型測試。CEO奧特曼在回應有關GPT-5的傳聞時,也暗示過GPT-4“正在增強”。
    的頭像 發(fā)表于 09-20 17:34 ?1272次閱讀
    OpenAI最新大模型曝光!劍指多模態(tài),<b class='flag-5'>GPT-4</b>之后最大升級!

    AI觀察 | 今年最火的GPT-4,正在締造科幻版妙手仁心!

    近來,微軟對于提示工程能力的最新研究 1 (鏈接詳見文末)再次吸引了一眾媒體的目光:“無需額外微調、無需專業(yè)策劃,僅憑提示GPT-4就能化身專家!”報道中這樣描述道 2 。 基于最新提示策略
    的頭像 發(fā)表于 12-11 08:15 ?522次閱讀
    AI觀察 | 今年最火的<b class='flag-5'>GPT-4</b>,正在締造科幻版妙手仁心!

    ChatGPT plus有什么功能?OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能

    OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能分析解答 在最近的OpenAI DevDay上,該組織發(fā)布了一項備受期待的公告:推出GPT-4 Turbo,這是對其突破性AI模型
    的頭像 發(fā)表于 12-13 09:19 ?1239次閱讀
    ChatGPT plus有什么功能?OpenAI 發(fā)布 <b class='flag-5'>GPT-4</b> Turbo 目前我們所知道的功能
    百家乐官网赌场策略论坛| 百家乐官网如何视频| 喀喇沁旗| 豪华百家乐官网桌子厂家 | 网上百家乐官网真的假的| 百家乐官网高手投注法| 百家乐官网输了100万| 欢乐谷百家乐官网的玩法技巧和规则| 百家乐官网群必胜打朽法| 太阳城百家乐娱乐官方网| 威尼斯人娱乐城真钱赌博| 太阳神网上娱乐| 百家乐官网那个平台信誉高| 澳门百家乐网络游戏信誉怎么样 | 两当县| 百家乐官网娱乐软件| 澳门百家乐娱乐城打不开| 大发888游戏在线客服| 右玉县| 蓝盾百家乐官网具体玩法| 信誉百家乐博彩网| 大发888棋牌下载| 百家乐官网单跳投注法| 百家乐官网游戏什么时间容易出| 百家乐扑克桌| 博彩公司大全| 金城百家乐官网玩法平台| 百家乐模拟投注器| 大发888娱乐城客户端下载| 在线百家乐官网代理| 月华百家乐官网的玩法技巧和规则 | 和记娱乐开户| 如何玩百家乐官网赚钱| 乐天堂百家乐娱乐平台| k7娱乐| 百家乐官网皇室百家乐官网| 游戏机百家乐的技巧| 孟津县| 百家乐发牌铲| 德州扑克 单机| 百家乐官网稳赢投资法|