国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

奧特曼:Codex 讓我感到 AGI!最新談話罕見透露下一代“完美模型”,大膽預(yù)測 Agent 明年突破邊界! 原創(chuàng)

發(fā)布于 2025-6-5 14:42
瀏覽
0收藏

編輯 | 伊風(fēng)、云昭

出品 | 51CTO技術(shù)棧(微信號:blog51cto)

不知道大家有沒有發(fā)現(xiàn):今年的奧特曼,突然安靜了很多。

不像 24 年那樣頻繁出現(xiàn)在各種技術(shù)播客、大會、訪談里,甚至好多次OpenAI新發(fā)布也不見他的身影——這位 AI 圈最活躍的“CEO 網(wǎng)紅”,仿佛一下子就開啟帶娃模式、退居幕后了。

可偏偏,在這個 AI產(chǎn)品、Agent、大模型都在飛速迭代的時間點,我們又特別想知道他最近在想什么。

好消息是:他終于公開露面了!

在剛結(jié)束的 2025 Snowflake 峰會上,Sam Altman 作為重磅嘉賓,和 Snowflake CEO Sridhar Ramaswamy 以及 Conviction 創(chuàng)始人 Sarah Guo 進行了一場信息密度極高的爐邊對談。

短短二十分鐘的訪談,內(nèi)容相當(dāng)凝練、有料,干貨滿滿!

比如,他給 AI 創(chuàng)業(yè)者的忠告發(fā)生了變化,今年的主題是:“馬上行動。”

對于企業(yè)采用大模型,這是奧特曼首次果斷、鮮明的表示支持。

對于所有還在等待更新的 GPT-5 模型、采取觀望態(tài)度的企業(yè)老板、團隊主管們,奧特曼表示:與其等新模型,不如現(xiàn)在就開始。

“你會發(fā)現(xiàn),那些率先下注、快速學(xué)習(xí)的企業(yè),已經(jīng)明顯領(lǐng)先于還在觀望的同行?!眾W特曼說道。

Sridhar 點頭稱是:“不會有一個完美時刻等你一切就緒?!?/p>

此外,奧特曼給出的第二個判斷是:是關(guān)于智能體(Agent)的。他認為:“未來工作的基本單位,是AI Agent?!?/p>

Altman 形容,現(xiàn)在更像是你請了個AI實習(xí)生:你丟給它一個任務(wù),比如“幫我找出我們官網(wǎng)漏掉的SEO優(yōu)化點”,它自己去讀你的網(wǎng)站代碼、查搜索趨勢、掃你的GitHub和Slack聊天記錄,然后給你一個優(yōu)化方案草案,你只需要點“同意”或“再改改”。  

而 Altman 表示,這個“實習(xí)生”,很快就能變成能獨立負責(zé)項目的工程師。  也就是說,未來的工作,可能不是“你完成10個任務(wù)”,而是“你指揮10個智能體”,再去微調(diào)它們的成果。

最后,他還透露了自己心中的“完美模型”:

“體積很小,但擁有超人級別的推理能力,運行速度極快,有一萬億 tokens 的上下文窗口,并能訪問你能想象的所有工具。”

??下圖為現(xiàn)場截圖:

奧特曼:Codex 讓我感到 AGI!最新談話罕見透露下一代“完美模型”,大膽預(yù)測 Agent 明年突破邊界!-AI.x社區(qū)

左起:Sam Altman、Sarah Guo、Sridhar Ramaswamy

以下是這場訪談的整理實錄,Enjoy:

1.模型可用性發(fā)生“質(zhì)的飛躍”,AI創(chuàng)業(yè)者必須馬上行動

主持人Sarah:我們開場就進入正題:Sam,你會給正在應(yīng)對 AI 變革的企業(yè)領(lǐng)導(dǎo)者們什么建議?

Sam Altman:我的建議是:馬上行動?,F(xiàn)在還有很多猶豫不決,模型變化太快,大家都想著“等等下一個版本”或者“看看這兩個模型誰更好”,或者“這波趨勢最終會往哪走”。

但在技術(shù)領(lǐng)域,有個通用原則是:當(dāng)技術(shù)快速迭代時,贏家往往是那些能夠迅速試錯、降低失敗成本、提升學(xué)習(xí)速度的公司。

我們目前觀察到的情況也印證了這一點:那些盡早下注、快速試驗的企業(yè),表現(xiàn)明顯優(yōu)于觀望和等待的同行。

Sridhar:我完全同意 Sam 的觀點。我還想補充的是:“好奇心”真的非常關(guān)鍵。我們對許多舊有流程的依賴其實已經(jīng)不再成立,但很多人沒有意識到。如今很多平臺,比如 Snowflake,讓你以非常低的成本進行實驗,可以做出很多小測試,從中提煉價值,再持續(xù)優(yōu)化。

我要再次強調(diào) Sam 的話:能迭代得越快,越能從 AI 中獲益。因為他們知道什么有效、什么無效,他們能應(yīng)對未來快速變化的局勢。

接下來的幾年,不會有一個“完美時機”讓一切塵埃落定。你只能在混沌中快速前進。

主持人Sarah:那你的建議和去年相比,有哪些不同呢?

Sridhar:其實,我去年也會說一樣的話。尤其是“保持好奇”和“允許試錯”——

這兩點一直都很重要。關(guān)鍵是你要在那些“失敗成本很低”的場景中去試錯,而這樣的場景其實非常多。

不過,技術(shù)確實成熟得更快了。比如現(xiàn)在的 ChatGPT,已經(jīng)能很好地結(jié)合網(wǎng)絡(luò)搜索來提供新鮮的信息,不再是那個“脫離實時數(shù)據(jù)”的工具。

不論是結(jié)構(gòu)化數(shù)據(jù)還是非結(jié)構(gòu)化數(shù)據(jù),現(xiàn)在的聊天機器人技術(shù)已經(jīng)可以投入主流使用了。當(dāng)然,我們依然可以探索更遠的“智能體”能力邊界,但即便在遠離前沿的應(yīng)用中,這項技術(shù)已經(jīng)非??捎谩?/p>

Sam Altman:有意思的是,我去年的觀點可能跟現(xiàn)在還真不太一樣。如果是對創(chuàng)業(yè)公司,我去年也會鼓勵他們早點上手,但對大型企業(yè)我可能會說:“可以小范圍試驗,但大多數(shù)情況下還不適合投入生產(chǎn)環(huán)境。”

但這個觀點現(xiàn)在變了——我們服務(wù)的大企業(yè)在這方面的增長是飛速的。他們現(xiàn)在真的在大規(guī)模使用我們的技術(shù)。我經(jīng)常問他們:“是什么變了?” 他們會說:“一部分是我們摸索清楚了用法,但更大的變化是:現(xiàn)在這東西真的好用多了!”

它能做很多過去想都不敢想的事情。某個時間點,在過去這一年里,模型的“可用性”發(fā)生了質(zhì)的飛躍。

 更有意思的問題是:明年這個時候我們又會說出什么新觀點?

我預(yù)測到那時,我們會進入一個階段:你不僅可以用 AI 自動化業(yè)務(wù)流程或開發(fā)新產(chǎn)品,還能真正說出,“我有一個極其重要的業(yè)務(wù)難題,我愿意砸大量算力下去解決它。”

而模型將能完成過去需要團隊合作都無法完成的任務(wù)。

那些已經(jīng)開始積累 AI 實戰(zhàn)經(jīng)驗的公司,將在未來的競爭中占據(jù)優(yōu)勢。屆時他們就可以說,“來吧 AI 系統(tǒng),把我這個關(guān)鍵項目完全重構(gòu)一遍?!?/p>

 這是下一次質(zhì)變的前奏:大量算力 + AI 推理能力 + 高難度問題。誰準備好了,誰就能邁出下一大步。

2.Codex讓我有了AGI的感覺!智能體明年將解決棘手的商業(yè)難題

主持人Sarah:既然你提到了推理能力、算力投入,以及智能體加入工作流程,那么關(guān)于“記憶與檢索”的問題就不能回避了——你覺得它們在這一輪 AI 變革中會起到什么樣的作用?

Sridhar:檢索技術(shù)一直是讓生成式 AI“貼地飛行”的關(guān)鍵,尤其在需要真實世界參考時。例如 GPT-3 時代我們就搭建了支持網(wǎng)頁搜索的大規(guī)模系統(tǒng),可以在你問時事問題時拉取外部信息作為參考。

同樣地,記憶系統(tǒng)也非常重要。模型能“記住”你以前是怎么解決問題的、你和系統(tǒng)的互動記錄,這些都會極大提升它后續(xù)的使用體驗和效率。

我認為隨著模型被用于越來越復(fù)雜的任務(wù),記憶和檢索的角色會變得更加關(guān)鍵。不論是提升交互質(zhì)量,還是賦能更強的智能體行為,上下文越豐富,AI 的表現(xiàn)就越好。

主持人Sarah:Sam,你能不能給在座的每一位領(lǐng)導(dǎo)者一個參考框架,來思考:智能體(Agents)現(xiàn)在能做什么?明年又可能做到什么?

Sam Altman:我們最近剛發(fā)布的編程智能體 Codex,是我個人第一次有“AGI時刻”的感覺。你觀察它的工作方式——你給它一堆任務(wù),它就在后臺默默執(zhí)行。它真的非常聰明,可以完成那種“長周期、跨階段”的任務(wù)。

你只需要坐在那里,說“這個通過”、“那個不行”、“再試一次”。它甚至能連接你的 GitHub,未來它還可能可以觀看你的會議、查看你的 Slack 聊天、閱讀你所有的內(nèi)部文檔。它做的事情已經(jīng)非常令人驚艷了。

 也許目前它還只是一個每天能工作幾小時的“實習(xí)生”,但不久之后,它會像一位能連續(xù)工作好幾天的“資深工程師”。而這類變化,不只會發(fā)生在編程領(lǐng)域,我們會看到智能體在很多工作類型中發(fā)揮類似作用。

現(xiàn)在已經(jīng)有很多公司在用智能體來自動化客戶支持、推動銷售流程、甚至更多的業(yè)務(wù)方向。有些人已經(jīng)在描述:他們的“工作”就是把任務(wù)分配給一群智能體,評估產(chǎn)出質(zhì)量,分析它們?nèi)绾螀f(xié)同工作,并給出反饋。

聽起來就像在帶一組還比較年輕的團隊成員。而且,這不是想象——它正在真實發(fā)生,只是目前還沒有完全普及。

明年,在一些有限的場景中,哪怕是很小的程度,我們將開始看到智能體真的能幫助人類發(fā)現(xiàn)新知識,或者解決那些非常復(fù)雜的商業(yè)問題。

目前的智能體主要還能處理的是:重復(fù)性的腦力勞動,短時間周期內(nèi)、低層級的認知任務(wù)。但隨著它們處理的任務(wù)變得更長線、更復(fù)雜——某一刻,我們就會迎來“AI 科學(xué)家”出現(xiàn)的時刻。一個能自主發(fā)現(xiàn)科學(xué)的新型智能體。

那將是世界性的重大時刻。

主持人Sarah:你剛才說 Codex 和編程智能體的體驗是你第一次有“AGI實感”的時刻。那我就必須問了:你現(xiàn)在是如何定義 AGI(通用人工智能)的?我們離它還有多遠?它對我們的意義是什么?

Sam Altman:我想,如果你能回到過去,哪怕只回到五年前……

主持人Sarah:那幾乎是 AI 的“黑暗時代”。

Sam Altman:其實,那段時期也非常有趣。如果我們回到整整五年前,我可能記得不太清,但應(yīng)該就在我們推出 GPT 的前夕。那時候,世界還沒見過真正強大的語言模型。

如果你能回到那個時間點,然后給人們展示今天的 ChatGPT,甚至不提 Codex 或其他產(chǎn)品,就光是 ChatGPT,我想大多數(shù)人會說:“這不就是 AGI 嗎?”

我們?nèi)祟惙浅I瞄L“調(diào)整自己的預(yù)期”,這其實是人性中非常美好的一點。

所以,我認為“AGI 究竟是什么”這個問題,本身并不重要。每個人對它的定義都不一樣,同一個人也會在不同時間給出不同定義。

真正重要的是:我們過去五年看到的 AI 年年飛躍的進展速度——很可能還會持續(xù)五年,甚至更久。

你說 AGI 的“勝利點”會在 2024、2026 還是 2028,其實沒那么關(guān)鍵;你說超級智能的里程碑是在 2028、2030 還是 2032,也都沒關(guān)系。

重點是:這是一條又長又美麗、令人震驚地平滑的指數(shù)曲線。

對我來說,一個能自主發(fā)現(xiàn)新科學(xué)的系統(tǒng),或者一個讓全世界科學(xué)發(fā)現(xiàn)速度翻幾倍的工具系統(tǒng),已經(jīng)可以滿足我對 AGI 的全部標(biāo)準。

當(dāng)然也有人堅持,AGI 必須能自我改進;也有人覺得,像 ChatGPT 搭配記憶功能的版本,已經(jīng)很像 AGI 了。

主持人Sarah:確實,從一些早期測試,比如圖靈測試來看,ChatGPT 已經(jīng)達標(biāo)了。

那我們回到Sridhar,你還記得你第一次用 OpenAI 模型做搜索是什么時候嗎?

Sridhar:你當(dāng)時其實用的是 GPT-3 的 Playground,在做一些小實驗。我們后來也接入了 API,但那時還不允許我們用完整的 GPT-3 模型。

我們就自己倒推:怎么用 70 億或 100 億參數(shù)的模型,來做到相似的效果。

對我來說,第一次“眼前一亮”的,是看到 GPT 真正解決了一個難題:抽象式摘要(abstractive summarization)。

也就是:把一篇 100 字的博客內(nèi)容,壓縮成三句話去描述它。這個任務(wù)非常難,人類都覺得棘手。但這些模型突然間就能做到了。

那一刻我意識到,如果它能在整個網(wǎng)頁語料庫上做這種事情——再配合能判斷哪些頁面值得看的搜索引擎能力——那就是搜索引擎的新時代了。

我記得當(dāng)時心里就想:哇,這玩意,真有力量。而且后來它的表現(xiàn)只會越來越好。

主持人Sarah:在你作為創(chuàng)業(yè)者或 CEO 的過程中,有沒有哪個節(jié)點讓你突然意識到,“哇,現(xiàn)在一切都是搜索,或者說是‘搜索+’”?我自己雇過 Neva 的前員工,當(dāng)時的理念也是:這個時代的一切,都是關(guān)于搜索的。你是什么時候有這種想法的?

Sridhar:這個問題其實是關(guān)于“設(shè)定上下文”的——當(dāng)你開始使用這些模型,或者思考某個問題的時候,你會意識到:我們需要一種機制,來縮小視角的范圍,讓模型聚焦在你想處理的內(nèi)容上。

這是一種非常強大、也具通用性的技巧。你看現(xiàn)在很多微調(diào)和后訓(xùn)練技術(shù),其實背后邏輯是類似的:拿一個非常強大的模型,為它提供上下文,告訴它哪些信息是相關(guān)的、哪些是無效的,然后用這個方法來提升模型的輸出質(zhì)量。

我認為這更像是一種通用的思維方式,而不僅僅是某個工具。你想實現(xiàn)某種結(jié)果,關(guān)鍵是要把“上下文”設(shè)定好。

上下文是無限的,人類靠“注意力”機制來解決這個問題——我們聚焦某個點。我把搜索看作是為模型設(shè)定注意力焦點的一種工具。

主持人Sarah:你同意 Sam 的看法嗎?也就是我們正處在一條“指數(shù)級增長的能力曲線”上?還是說你有一個自己認同的 AGI 定義——一個對你或客戶來說更重要的標(biāo)準?

Sridhar:我覺得這會變成一個哲學(xué)性很強的辯論。比如說,有個比喻是:“潛水艇到底算不算在游泳?”某種意義上這聽起來有點荒謬,但從另一個角度看,它當(dāng)然是在“游”。

所以我也把這些模型看作擁有極其驚人的能力。任何一個關(guān)注未來趨勢的人看到這些模型的表現(xiàn),可能都會說:“這已經(jīng)是 AGI 了?!?/p>

但正如 Sam 提到的,我們現(xiàn)在說的這些話,也許到 2025 年時又會覺得不值一提。

真正讓我驚嘆的,是進展的速度。我真誠相信,這個進程會帶來許多偉大的成果。

這有點像,我們?nèi)绾慰创慌_“還不錯的計算機”可以戰(zhàn)勝世界上所有的國際象棋高手——這真的重要嗎?

并不重要。我們依然有很多人仍然在下棋,而且他們?nèi)匀环浅I瞄L。

所以我覺得關(guān)于“定義”的爭論其實沒那么關(guān)鍵。現(xiàn)在的圍棋也比以前更流行了。我們會從這條路徑中學(xué)到很多東西,但“那個具體的時刻”并不是重點。

3.完美模型:輕量、強推理、可調(diào)用所有工具

主持人Sarah:我個人有個直覺:當(dāng)人們在問 AGI 的時候,其實很多人真正想問的是“意識”,只是他們沒把問題說清楚,或者說只有一部分人會明確表達那樣的問題。你之前說這更偏哲學(xué),所以我想問問你:你們內(nèi)部已經(jīng)在訓(xùn)練下一代模型,看到別人還看不到的能力,從產(chǎn)品角度、公司運營角度,有哪些新的“涌現(xiàn)能力”是正在改變你們的思維方式的?

Sam Altman:是的,未來一年或兩年發(fā)布的模型將會令人驚嘆。我們面前還有很大的進步空間。

就像 GPT-3 到 GPT-4 帶來的跨越一樣,許多企業(yè)將可以做到以前根本不可能做到的事。比如我們剛才聊到的,如果你是一家芯片公司,你可以說:“幫我設(shè)計一款比我們現(xiàn)有方案更好的芯片”;或者你是一家生物科技公司,你可以說:“這個病我搞不定,你來解決?!?/p>

這些都不再遙不可及。

這些模型有能力理解你能提供給它的全部上下文,連接所有工具和系統(tǒng),然后深入思考,進行極其出色的推理,并給出有說服力的解決方案。

它們的穩(wěn)健性也在提升,我們可以越來越放心地讓它自主執(zhí)行復(fù)雜任務(wù)。

坦白說,我以前沒想過它們會來得這么快。但現(xiàn)在真的感覺……非常接近了。

主持人Sarah:那你能不能給大家一點直覺:未來哪些“知識”是 AI 能掌握的?哪些是還在邊界上的?我想象中的“核心智力”是,我也算挺聰明的,但我腦子里也沒有完美的物理模擬器——所以我們怎么判斷 AI 還能進化多遠?

Sam Altman:我自己比較喜歡的一個思考框架是這樣的:這不是我們馬上就要發(fā)布的東西,但從理念上說,我們追求的是這樣一個模型——體積很小,但擁有超人級別的推理能力,運行速度極快,有一萬億 tokens 的上下文窗口,并能訪問你能想象的所有工具。

所以它到底“知不知道某個具體知識點”,其實變得沒那么重要。

用這些模型作為數(shù)據(jù)庫是荒謬的——它們是又慢又貴還不準確的數(shù)據(jù)庫。但驚人的是:它們可以進行推理。

你可以把一個企業(yè)或個人生活的所有上下文信息都“扔進去”,再把需要的物理模擬器或其他工具整合進來——你能做的事就變得非常了不起。

而我們現(xiàn)在,就是在向這個方向邁進。

主持人Sarah:太震撼了。我想問一個更具假設(shè)性的問題:

如果你手上有現(xiàn)在 1000 倍的算力——原本我想問“無限算力”,但那太夸張了——如果是 1000 倍,你會用它做什么?

Sam Altman:我覺得,最“元”的回答(雖然我之后會給一個更實用的),可能是這樣的:我會請你們投入所有力量去推進 AI 研究,開發(fā)出更優(yōu)秀的模型,然后再問那個更強的模型,我們該怎么利用這些算力。

主持人Sarah:直接讓它來解決“你最難的問題”。

Sam Altman:我認為這其實是最理性的做法。

主持人Sarah:這說明你是真的相信它能給出答案。

Sam Altman:我覺得更實用的回答是這樣的: 我們現(xiàn)在在 ChatGPT 內(nèi)部、以及企業(yè)用戶中,已經(jīng)看到很多案例表明——測試時使用更多算力,確實能帶來真實的收益。

比如你讓模型“多想一會兒”、或者對一個復(fù)雜問題多嘗試幾次,就有可能得到明顯更好的答案。

所以,如果一家企業(yè)說,“我要在每一個難題上都加大 1000 倍的算力”,他們真的可能會得到一些令人驚艷的結(jié)果。

當(dāng)然,你不會真的這么做,也沒有 1000 倍的算力。但現(xiàn)在這種能力已經(jīng)變得可行,說明我們可以嘗試的一件事就是:

用“冪律法則”的方式去看待算力價值——對于最難、最有價值的問題,愿意投入更多算力去嘗試,可能就能獲得突破。

主持人Sarah:那Sridhar,你會不會也對 Snowflake 做一樣的事?你是數(shù)據(jù)基礎(chǔ)設(shè)施、搜索優(yōu)化、企業(yè)系統(tǒng)方面的專家,現(xiàn)在掌管 Snowflake。如果給你一個超級難題,你也會直接丟給算力處理嗎?

Sridhar:我覺得這確實是個很酷的應(yīng)用場景。不過讓我換一個角度回答,跳出我們每天生活的科技圈來說:

你知道有個叫 Arnold 項目 的研究嗎?它有點像我們 20 多年前進行的 DNA 測序項目,不過這次的研究對象是 RNA 表達機制。結(jié)果發(fā)現(xiàn),RNA 實際上控制著我們身體中蛋白質(zhì)的工作方式。

如果我們能徹底搞清楚 RNA 是怎么調(diào)控 DNA 表達的,那很可能就能攻克大量疾病,對整個人類社會來說是一次巨大的飛躍。

所以,用類語言模型去做這類 RNA 研究項目,就像當(dāng)年用超級算力破解人類基因組一樣——這會是一個非??岬膽?yīng)用方向,如果你真的能動用大量算力的話。

主持人Sarah:真的很振奮人心,而且這確實是人類面臨的最大問題之一。

感謝你們(參與訪談)。

本文轉(zhuǎn)載自??51CTO技術(shù)棧??,作者:伊風(fēng)、云昭

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責(zé)任
標(biāo)簽
已于2025-6-5 17:04:33修改
1
收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦
社區(qū)精華內(nèi)容

目錄

    欧美一级理论片| 欧美精品一区二区三区久久久| 日韩精品一二三四区| 成人在色线视频在线观看免费大全 | 欧美高清在线一区| 日本一区二区三区精品视频| 亚洲精品高潮| 国产视频在线观看一区二区| 最近中文字幕mv免费高清在线| 综合综合综合综合综合网| 亚洲色图25p| 国产91在线播放精品91| 粗暴蹂躏中文一区二区三区| av在线天堂播放| 在线日韩第一页| 国产h片在线观看| 国产精品色在线观看| 日本一道在线观看| 国产精品亚洲一区二区三区妖精 | 亚洲一区在线电影| 天堂а√在线资源在线| www.亚洲成人| 91麻豆精品国产综合久久久 | 一区二区三区不卡视频在线观看| 久久精品国产一区二区三区日韩 | 91精品综合| 狠狠爱一区二区三区| 久久综合av| 亚洲欧美一区二区三区四区 | 亚洲视频专区在线| 成人在线资源网址| 成人在线视频区| 国产精品magnet| 日韩专区在线播放| 日韩精品福利| 色婷婷av一区二区三区之一色屋| 91福利免费在线| 91在线观看污| 亚洲一二三区精品| 国产成人av电影在线播放| 国产中文字幕日韩| 日韩脚交footjobhd| 亚洲另类激情图| 999精品网| 欧美精品电影免费在线观看| 久久99国产精品久久99大师| 成人妇女淫片aaaa视频| 日韩中文字幕一区二区三区| 青青青在线视频播放| 日本欧美一区二区| 国产亚洲一区二区三区在线播放| 美国三级日本三级久久99| 久久亚洲国产精品日日av夜夜| 亚洲小说欧美另类婷婷| 欧美日韩亚洲国产成人| 亚洲成av人片在线| 女一区二区三区| xxx国产在线观看| 在线看不卡av| 僵尸再翻生在线观看免费国语| 国产亚洲欧美日韩一区二区| 网红女主播少妇精品视频| 国产成人一二三区| 欧美一区二区三区视频| 国产精品日本一区二区三区在线 | 国产乱肥老妇国产一区二| 成人免费视频一区| 蜜桃视频在线观看播放| 精品久久久三级| 天天av天天翘天天综合网色鬼国产| 九色精品蝌蚪| 男人j进女人j| 日韩视频中午一区| 亚洲女同另类| 日韩精品一区在线| 欧美18av| 日本免费一区二区三区视频观看| 国产精品日韩精品中文字幕| 99三级在线| 国产专区欧美精品| 1024亚洲| 日韩区在线观看| 精品福利在线| 国产伊人精品在线| 毛片av中文字幕一区二区| 日韩手机在线观看视频| 日韩欧美在线字幕| 精品国产第一福利网站| 欧美一区三区三区高中清蜜桃| 亚洲三级网站| 午夜精品久久久久久久无码| 亚洲一二三四在线| 国产在线拍揄自揄拍视频| 久久婷婷国产麻豆91天堂| 91精品电影| 国产高清av在线播放| 欧美日韩免费在线观看| 日产精品一区| 91色p视频在线| 豆国产96在线|亚洲| 中文字幕国产在线| 国产亚洲综合久久| 午夜久久免费观看| 99色这里只有精品| 欧美色视频一区| 精品精品国产三级a∨在线| 欧美一区二区三区在线免费观看| 中文字幕国产一区| av成人福利| 成人久久久久久| 91在线观看高清| 污污片在线免费视频| 国产精品99免视看9| 激情都市一区二区| 久青青在线观看视频国产| 欧美国产日韩免费| 美女视频免费一区| 欧美18xxxxx| 久久久噜噜噜久久| 美女视频黄 久久| 国产小视频免费在线网址| 久久久久久久色| 国产大陆a不卡| 国产黄色在线免费观看| 成人乱人伦精品视频在线观看| 日本一区二区视频在线| 欧美电影免费观看| 日韩亚洲视频在线| 欧美视频一区在线观看| 中文字幕av一区二区三区人| 国产毛片视频网站| 亚洲第一色在线| 影音先锋日韩资源| 一区二区三区不卡在线视频| 97在线日本国产| 91在线观看污| 日韩欧美精品一区二区综合视频| 日本一区二区视频| 欧美二区三区的天堂| 欧美成人直播| 日韩伦理片在线观看| 91成品人片a无限观看| 97久久久精品综合88久久| 国产夫妻在线播放| 欧洲国产精品| 69堂精品视频| 校园春色综合网| 美女av在线播放| 精品一区二区日本| 欧美在线影院一区二区| 日韩av在线播放网址| jizz18欧美| 欧美专区日韩视频| 亚洲免费在线观看| 亚洲欧美校园春色| 777免费视频| 2020欧美日韩在线视频| 国产精品久久久久久久久久免费看 | 国产精品网站免费| 亚洲经典中文字幕| 久久精品国产色蜜蜜麻豆| 黄色在线看片| 视频一区免费观看| 日韩精品在线看| 国产999精品久久| 亚洲网站免费| 国产一区视频免费观看| 91av网站在线播放| 天涯成人国产亚洲精品一区av| 久久免费精品视频在这里| 久热av在线| 亚洲精品8mav| 中文字幕一区电影| 中文幕一区二区三区久久蜜桃| 免费观看成人www动漫视频| av首页在线| 97人人香蕉| 欧美精品一区二区久久久| 国产精品一区二区久久不卡| 免费视频观看成人| 制服影音先锋| 91免费版黄色| 日韩高清a**址| www.欧美亚洲| 久久最新网址| 日韩电影免费| 欧美一区二区三区四区在线观看地址| 亚洲成年网站在线观看| 不卡区在线中文字幕| 欧美性生活一级片| 成年人视频网站在线| 中文字幕精品在线播放| 性色av一区二区三区在线观看| 岛国精品视频在线播放| 日本女人一区二区三区| 欧洲大片精品免费永久看nba| 深夜福利视频在线观看| 国产又大又长又粗又黄| 欧美激情视频一区二区| 欧美午夜女人视频在线|