五月婷婷欧美视频_少女频道在线观看高清_欧美日韩视频一区二区三区_7777精品伊久久久大香线蕉语言

機(jī)器人資訊
  1. 中國(guó)制造2025前瞻:無(wú)人機(jī)的未來(lái)(二)
  2. 【重磅】人工智能書(shū)寫(xiě)醫(yī)療健康產(chǎn)業(yè)新篇章(下)
  3. 人工智能書(shū)寫(xiě)醫(yī)療機(jī)器人產(chǎn)業(yè)新篇章
  4. 牛!市一院參與研發(fā)“國(guó)之重器”骨科手術(shù)機(jī)器人
  5. 機(jī)器人胰腺手術(shù)全球直播
技術(shù)教程
示教器維修
伺服電機(jī)維修
首頁(yè) > 機(jī)器人資訊 > 波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

日期:2024-11-29   人氣:  來(lái)源:互聯(lián)網(wǎng)
簡(jiǎn)介:談到移動(dòng) 機(jī)器人 ,大家第一印象可能是 服務(wù)機(jī)器人 ,實(shí)際上無(wú)人駕駛汽車、可自主飛行的無(wú)人機(jī)等等都屬于移動(dòng)機(jī)器人范疇。它們能和人一樣能夠在特定的環(huán)境下自由行走/飛行,都依賴于各自的定位導(dǎo)航、路徑規(guī)劃以及避障等功能,而視覺(jué)算法則是實(shí)現(xiàn)這些功能……

 

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

談到移動(dòng)機(jī)器人,大家第一印象可能是服務(wù)機(jī)器人,實(shí)際上無(wú)人駕駛汽車、可自主飛行的無(wú)人機(jī)等等都屬于移動(dòng)機(jī)器人范疇。它們能和人一樣能夠在特定的環(huán)境下自由行走/飛行,都依賴于各自的定位導(dǎo)航、路徑規(guī)劃以及避障等功能,而視覺(jué)算法則是實(shí)現(xiàn)這些功能關(guān)鍵技術(shù)。

如果對(duì)移動(dòng)機(jī)器人視覺(jué)算法進(jìn)行拆解,你就會(huì)發(fā)現(xiàn)獲取物體深度信息、定位導(dǎo)航以及壁障等都是基于不同的視覺(jué)算法,本文就帶大家聊一聊幾種不同但又必不可少的視覺(jué)算法組成。

移動(dòng)機(jī)器人的視覺(jué)算法種類

問(wèn):實(shí)現(xiàn)定位導(dǎo)航、路徑規(guī)劃以及避障,那么這些過(guò)程中需要哪些算法的支持?

談起移動(dòng)機(jī)器人,很多人想到的需求可能是這樣的:“嘿,你能不能去那邊幫我拿一杯熱拿鐵過(guò)來(lái)。”這個(gè)聽(tīng)上去對(duì)普通人很簡(jiǎn)單的任務(wù),在機(jī)器人的世界里,卻充滿了各種挑戰(zhàn)。為了完成這個(gè)任務(wù),機(jī)器人首先需要載入周圍環(huán)境的地圖,精確定位自己在地圖中的位置,然后根據(jù)地圖進(jìn)行路徑規(guī)劃控制自己完成移動(dòng)。

而在移動(dòng)的過(guò)程中,機(jī)器人還需要根據(jù)現(xiàn)場(chǎng)環(huán)境的三維深度信息,實(shí)時(shí)的躲避障礙物直至到達(dá)最終目標(biāo)點(diǎn)。在這一連串機(jī)器人的思考過(guò)程中,可以分解為如下幾部分的視覺(jué)算法:

1.深度信息提取

2.視覺(jué)導(dǎo)航

3.視覺(jué)避障

后面我們會(huì)詳細(xì)說(shuō)這些算法,而這些算法的基礎(chǔ),是機(jī)器人腦袋上的視覺(jué)傳感器。

視覺(jué)算法的基礎(chǔ):傳感器

問(wèn):智能手機(jī)上的攝像頭可以作為機(jī)器人的眼睛嗎?

所有視覺(jué)算法的基礎(chǔ)說(shuō)到底來(lái)自于機(jī)器人腦袋上的視覺(jué)傳感器,就好比人的眼睛和夜間視力非常好的動(dòng)物相比,表現(xiàn)出來(lái)的感知能力是完全不同的。同樣的,一個(gè)眼睛的動(dòng)物對(duì)世界的感知能力也要差于兩個(gè)眼睛的動(dòng)物。每個(gè)人手中的智能手機(jī)攝像頭其實(shí)就可以作為機(jī)器人的眼睛,當(dāng)下非常流行的Pokeman Go游戲就使用了計(jì)算機(jī)視覺(jué)技術(shù)來(lái)達(dá)成AR的效果。

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

像上圖畫(huà)的那樣,一個(gè)智能手機(jī)中攝像頭模組,其內(nèi)部包含如下幾個(gè)重要的組件:鏡頭,IR filter,CMOS sensor。其中鏡頭一般由數(shù)片鏡片組成,經(jīng)過(guò)復(fù)雜的光學(xué)設(shè)計(jì),現(xiàn)在可以用廉價(jià)的樹(shù)脂材料,做出成像質(zhì)量非常好的手機(jī)攝像頭。

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

CMOS sensor上面會(huì)覆蓋著叫做Bayer三色濾光陣列的濾色片。每個(gè)不同顏色的濾光片,可以通過(guò)特定的光波波長(zhǎng),對(duì)應(yīng)CMOS感光器件上就可以在不同位置分別獲得不同顏色的光強(qiáng)了。如果CMOS傳感器的分辨率是4000x3000,為了得到同樣分辨率的RGB彩色的圖像,就需要用一種叫做demosaicing的計(jì)算攝像算法,從2綠1藍(lán)1紅的2x2網(wǎng)格中解算出2x2的RGB信息。

一般的CMOS感光特性除了選擇紅綠藍(lán)三色之外,對(duì)于紅外光是透明的。因此在光路中加上IR濾光片,是為了去除太陽(yáng)光線中紅外光對(duì)CMOS的干擾。加上濾光片后,通常圖像的對(duì)比度會(huì)得到顯著的提升。

問(wèn):計(jì)算機(jī)視覺(jué)中還會(huì)用到什么傳感器?

除了RGB相機(jī),計(jì)算機(jī)視覺(jué)中常用的還有其他種類的特殊相機(jī)。例如有一種相機(jī)的濾光片是只允許通過(guò)紅外光波段的。因?yàn)槿搜弁ǔJ强床灰?jiàn)紅外光的,所以可以在相機(jī)附近加上主動(dòng)紅外光源,用于測(cè)距等應(yīng)用

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

另外,大部分我們用到的camera都是以rolling shutter的形式實(shí)現(xiàn)電子曝光的,像圖中左側(cè)那樣,為了減少電子器件的成本,曝光通常是一行一行分別進(jìn)行,這樣勢(shì)必造成物體快速移動(dòng)時(shí),相機(jī)采集到的圖像會(huì)發(fā)生形變。為了避免這種形變對(duì)基于立體幾何進(jìn)行計(jì)算的視覺(jué)算法的影響(例如VSLAM),選用global shutter的相機(jī)就顯得特別重要了。

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

深度相機(jī)是另一大類視覺(jué)算法中需要的傳感器,可以分成如下幾類:

1.TOF傳感器(例如Kinect 2代),類似昆蟲(chóng)復(fù)眼。成本高,室外可以使用。

2.結(jié)構(gòu)光傳感器(例如Kinect 1代),三角定位原理,成本中,室外不能用。

3.雙目視覺(jué)(例如Intel Realsense R200),主動(dòng)照明或被動(dòng)照明,IR或可見(jiàn)光皆可。成本低,室外可以使用。

算法一:深度信息提取

問(wèn):深度相機(jī)如何識(shí)別物體的深度信息的呢?

簡(jiǎn)而言之,其原理就是使用兩個(gè)平行的相機(jī),對(duì)空間中的每個(gè)點(diǎn)三角定位。通過(guò)匹配左右兩個(gè)相機(jī)中成像點(diǎn)的位置,來(lái)計(jì)算對(duì)應(yīng)三維點(diǎn)在空間中的距離。學(xué)術(shù)界對(duì)雙目匹配恢復(fù)深度圖研究有很長(zhǎng)的歷史,在NASA火星車上就開(kāi)始采用這個(gè)技術(shù)。但是其真正在消費(fèi)電子品市場(chǎng)得到廣泛應(yīng)用還是從微軟的Kinect體感傳感器開(kāi)始。

Kinect傳感器背后使用了以色列Primesense公司授權(quán)的結(jié)構(gòu)光技術(shù)(如今已被Apple收購(gòu))。其原理是避開(kāi)雙目匹配中復(fù)雜的算法設(shè)計(jì),轉(zhuǎn)而將一個(gè)攝像頭更換成向外主動(dòng)投射復(fù)雜光斑的紅外投影儀,而另一個(gè)平行位置的相機(jī)也變成了紅外相機(jī),可以清楚的看到投影儀投射的所有光斑。因?yàn)槿搜劭床坏郊t外光斑,而且紋理非常復(fù)雜,這就非常有利于雙目匹配算法,可以用非常簡(jiǎn)潔的算法,識(shí)別出深度信息。

盡管Kinect的內(nèi)在原理官方并沒(méi)有給出解釋,在近年來(lái)一篇Kinect Unleashed的文章中,作者向公眾hack了這個(gè)系統(tǒng)的工作原理:

首先,紅外圖像在基線方向上采樣8倍,這樣可以保證在做雙目匹配后實(shí)現(xiàn)3bit的亞像素精度。然后,對(duì)圖像做sobel濾波,使得圖像的匹配精度提高。而后,圖像與預(yù)存的投影光斑模板圖像進(jìn)行SAD block matching。該算法的計(jì)算復(fù)雜度小,適合硬化和并行。最后,經(jīng)過(guò)簡(jiǎn)單的圖像后處理,下采樣到原始分辨率,得到最終的深度圖。

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

我們可以看到,隨著2009年Kinect設(shè)備在消費(fèi)機(jī)市場(chǎng)的爆發(fā)(發(fā)售頭10天100萬(wàn)臺(tái)),逐漸開(kāi)始催生了類似技術(shù)變種在移動(dòng)端設(shè)備的研發(fā)熱潮。從2013年至今,隨著計(jì)算能力的提升和算法的進(jìn)步,硬件成本更低的主動(dòng)/被動(dòng)雙目深度相機(jī)開(kāi)始在移動(dòng)手機(jī)上涌現(xiàn)。

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

過(guò)去認(rèn)為很難實(shí)時(shí)運(yùn)行的雙目匹配算法,即使在沒(méi)有主動(dòng)結(jié)構(gòu)光輔助的情況下,也表現(xiàn)出非常優(yōu)異的3D成像質(zhì)量。SegwayRobot采用了主動(dòng)/被動(dòng)可切換的雙目深度視覺(jué)系統(tǒng)。如下圖所示,左側(cè)三個(gè)傳感器分別為,左紅外相機(jī),紅外pattern投影,右紅外相機(jī)。在室內(nèi)工作時(shí),因?yàn)榧t外光源不足,紅外投影打開(kāi),輔助雙目匹配算法。在室外工作時(shí),紅外光源充足,紅外投影關(guān)閉,雙目匹配算法可以直接運(yùn)行。綜合看,此系統(tǒng)在室內(nèi)外都表現(xiàn)出優(yōu)異的深度傳感能力。

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

算法二:定位導(dǎo)航

問(wèn):視覺(jué)處理后,機(jī)器人是如何實(shí)現(xiàn)導(dǎo)航的?

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

機(jī)器人導(dǎo)航本身是一個(gè)比較復(fù)雜的系統(tǒng)。其中涉及到的技術(shù)會(huì)有如下列表:

視覺(jué)里程計(jì) VO

建圖,利用VO和深度圖

重定位,從已知地圖中識(shí)別當(dāng)前的位置

閉環(huán)檢測(cè)·,消除VO的閉環(huán)誤差

全局導(dǎo)航

視覺(jué)避障

Scene tagging,識(shí)別房間中物體加上tag

機(jī)器人開(kāi)機(jī),視覺(jué)里程計(jì)就會(huì)開(kāi)始工作,記錄從開(kāi)機(jī)位置起的6DOF定位信息。在機(jī)器人運(yùn)動(dòng)過(guò)程中,mapping算法開(kāi)始構(gòu)建機(jī)器人看到的世界,將空間中豐富的特征點(diǎn)信息,二維的地圖信息記錄到機(jī)器人map中。

當(dāng)機(jī)器人運(yùn)動(dòng)過(guò)程中因?yàn)檎趽酢嚯姷仍騺G失了自身的坐標(biāo),重定位算法就需要從已知地圖中定位到機(jī)器人當(dāng)前的位置估計(jì)。另外,當(dāng)機(jī)器人運(yùn)動(dòng)中回到了地圖中曾經(jīng)出現(xiàn)過(guò)的位置,往往視覺(jué)里程計(jì)的偏差會(huì)導(dǎo)致軌跡并沒(méi)有完全閉合,這就需要閉環(huán)算法檢測(cè)和糾正這個(gè)錯(cuò)誤。

有了全局地圖之后,機(jī)器人就可以給定一些目標(biāo)點(diǎn)指令,做全局的自主導(dǎo)航了。在現(xiàn)實(shí)中,因?yàn)榄h(huán)境是不停變化的,全局地圖并不能完全反映導(dǎo)航時(shí)的障礙物狀況,KUKA機(jī)器人維修,因此需要凌駕于全局導(dǎo)航之上的視覺(jué)避障算法進(jìn)行實(shí)時(shí)的運(yùn)動(dòng)調(diào)整。

最后,一個(gè)自動(dòng)的導(dǎo)航系統(tǒng)還需要機(jī)器人自動(dòng)識(shí)別和理解空間中的不同物體的信息、位置、高度和大小。這些tag信息疊加在地圖上,機(jī)器人就可以從語(yǔ)義上理解自己所處的環(huán)境,而用戶也可以從更高層次下達(dá)一些指令。

問(wèn):視覺(jué)VSLAM在機(jī)器人上的實(shí)現(xiàn)有哪些難點(diǎn)?

視覺(jué)VSLAM是一個(gè)集合了視覺(jué)里程計(jì),建圖,和重定位的算法系統(tǒng)。近年來(lái)發(fā)展很快。基于特征的視覺(jué)SLAM算法從經(jīng)典的PTAM算法開(kāi)端,目前以O(shè)RB-SLAM為代表的算法已經(jīng)可以在PC上達(dá)到實(shí)時(shí)運(yùn)行。下面是一個(gè)ORBSLAM的框圖:

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

從名字可見(jiàn),其使用ORB作為圖像特征提取工具,并且在后續(xù)的建圖及重定位中均使用了同一份特征點(diǎn)信息。相對(duì)于傳統(tǒng)的SIFT和SURF特征提取算法,其效率高出很多。

ORB-SLAM包含三個(gè)并行的線程,即跟蹤,建圖和閉環(huán)。其中跟蹤線程運(yùn)行在前端,保證實(shí)時(shí)運(yùn)行,建圖和閉環(huán)線程運(yùn)行在后端,速度不需要實(shí)時(shí),但是與跟蹤線程共享同一份地圖數(shù)據(jù),可以在線修正使得地圖數(shù)據(jù)精度和跟蹤精度更高。下圖是ORB-SLAM地圖的主要數(shù)據(jù)結(jié)構(gòu),

點(diǎn)云和關(guān)鍵幀。兩者之間通過(guò)圖像上2D特征點(diǎn)與空間中的點(diǎn)云建立映射關(guān)系,同時(shí)還維護(hù)了關(guān)鍵幀之間的covisibility graph關(guān)系。通過(guò)這些數(shù)據(jù)關(guān)聯(lián),用優(yōu)化方法來(lái)維護(hù)整個(gè)地圖。

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

ORB-SLAM在機(jī)器人上應(yīng)用仍然存在如下難點(diǎn):

1.計(jì)算量過(guò)大,在4核處理器上通常會(huì)占去60%左右CPU資源。

2.在機(jī)器人運(yùn)動(dòng)過(guò)快時(shí)會(huì)出現(xiàn)跟丟不可復(fù)原的情況。

3.單目SLAM存在尺度不確定的問(wèn)題。在機(jī)器人快速旋轉(zhuǎn)時(shí),此問(wèn)題尤其明顯,很快會(huì)出現(xiàn)閉環(huán)誤差過(guò)大無(wú)法糾正的情況。

針對(duì)尺度問(wèn)題,有兩種方法解決:增加一個(gè)攝像頭形成雙目SLAM系統(tǒng),或者增加一個(gè)IMU形成松耦合/緊耦合的視覺(jué)慣導(dǎo)定位系統(tǒng)。這里簡(jiǎn)單介紹松耦合的視覺(jué)慣導(dǎo)定位系統(tǒng)。一般把VSLAM當(dāng)成一個(gè)黑盒子,將其的輸出作為觀測(cè)量放到一個(gè)基于IMU的EKF系統(tǒng)中,EKF最終fuse的輸出即是系統(tǒng)的輸出。

考慮到camera數(shù)據(jù)和IMU數(shù)據(jù)通常是不同步的,因此通過(guò)硬件時(shí)間戳,KUKA機(jī)器人維修,需要判斷圖像數(shù)據(jù)對(duì)應(yīng)的時(shí)間戳與IMU時(shí)間戳的關(guān)系。在EKF propagate步驟,更高幀率的IMU數(shù)據(jù)不停的更新EKF的狀態(tài)。在camera數(shù)據(jù)到來(lái)時(shí),觸發(fā)EKF update步驟,根據(jù)EKF建模方程來(lái)更新?tīng)顟B(tài)變量、協(xié)方差矩陣,并且重新更新所有晚于camera數(shù)據(jù)的IMU數(shù)據(jù)對(duì)應(yīng)的狀態(tài)變量。

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

SegwayRobot采用了業(yè)界領(lǐng)先的視覺(jué)慣導(dǎo)定位系統(tǒng),下面是一個(gè)在樓道里面運(yùn)行一圈,回到原點(diǎn)之后的效果圖,具體有如下優(yōu)勢(shì):

1.在大尺度下可以保證非常小的閉環(huán)誤差

2.實(shí)時(shí)運(yùn)行,需求CPU資源小

3.允許快速旋轉(zhuǎn)等情形,庫(kù)卡機(jī)器人驅(qū)動(dòng)器維修,不會(huì)跟丟

算法三:避障

問(wèn):視覺(jué)避障的算法原理是怎樣的?

導(dǎo)航解決的問(wèn)題是引導(dǎo)機(jī)器人接近目標(biāo)。當(dāng)機(jī)器人沒(méi)有地圖的時(shí)候,接近目標(biāo)的方法稱為視覺(jué)避障技術(shù)。避障算法解決的問(wèn)題是根據(jù)視覺(jué)傳感器的數(shù)據(jù),對(duì)靜態(tài)障礙物、動(dòng)態(tài)障礙物實(shí)現(xiàn)躲避,但仍維持向目標(biāo)方向運(yùn)動(dòng),實(shí)時(shí)自主導(dǎo)航。

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

避障算法有很多,然而這些方法都有嚴(yán)格的假設(shè),假設(shè)障礙物為圓形或假設(shè)機(jī)器人為圓形,假設(shè)機(jī)器人可以任意方向運(yùn)動(dòng),s或假設(shè)它只能走圓弧路徑。然而實(shí)際應(yīng)用上,機(jī)器人很難達(dá)到條件。比如VFF算法, 該算法假設(shè)機(jī)器人為點(diǎn),而且可以任意方向運(yùn)動(dòng)。VFH+假設(shè)機(jī)器人為圓形,通過(guò)圓形膨脹障礙物,在考慮運(yùn)動(dòng)學(xué)問(wèn)題時(shí)僅僅假設(shè)機(jī)器人以圓弧路徑運(yùn)動(dòng)。DWA也假設(shè)機(jī)器人為圓形,在考慮運(yùn)動(dòng)學(xué)問(wèn)題時(shí)只模擬了前向圓弧運(yùn)動(dòng)時(shí)的情況。

相對(duì)而言,我們不限制機(jī)器人的形狀,考慮運(yùn)動(dòng)學(xué)問(wèn)題時(shí),模擬多種運(yùn)動(dòng)模型,而不限于圓弧運(yùn)動(dòng),因?yàn)檫@樣可以為機(jī)器人找到更佳避開(kāi)障礙物的行為。

這張圖顯示了使用不同運(yùn)動(dòng)學(xué)模型導(dǎo)致不同的避障結(jié)果。左圖表示使用圓弧模型時(shí)模擬的路徑,右圖表示使用另一種路徑模型模擬的路徑。在這種狹小環(huán)境,此方法可以提前預(yù)測(cè)多個(gè)方向的障礙物情況,選擇合適的模型可以幫助找到更合適的運(yùn)動(dòng)方向躲避障礙物。

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

和目前常用的避障算法之間存在的差異在于,它將運(yùn)動(dòng)學(xué)模型抽象化到周圍環(huán)境地圖中,然后就可以使用任何常用的避障算法,這樣就解耦了運(yùn)動(dòng)學(xué)模型與算法的捆綁,而且任何要求嚴(yán)格的避障算法都能加入進(jìn)來(lái)。SegwayRobot的避障系統(tǒng),綜合了深度傳感器,超聲波,IMU等sensor。在復(fù)雜的環(huán)境中,可以自如躲避障礙物。

 

波士頓等移動(dòng)機(jī)器人的視覺(jué)算法解析

 

這張圖是我們的避障系統(tǒng)的一個(gè)截圖,可以看到深度圖和2維的避障地圖。最下面紅色的指針就代表了每時(shí)每刻避障的決策。

精彩問(wèn)答

Q:為什么選用ir相機(jī)而不是傳統(tǒng)的rgb相機(jī)呢?ir相機(jī)相對(duì)來(lái)講的優(yōu)勢(shì)在哪里?

A:ir相機(jī)可以看到人眼看不到的物體,比如深度相機(jī)需要在室內(nèi)投射紅外紋理,幫助深度識(shí)別。人眼看不到,但ir相機(jī)可以看。

Q:現(xiàn)在機(jī)器人導(dǎo)航是否主要是slam技術(shù),還有沒(méi)其他導(dǎo)航技術(shù)?主要流行的slam技術(shù)有哪些?用于無(wú)人駕駛和無(wú)人機(jī)的視覺(jué)導(dǎo)航技術(shù)有哪些異同?

A:slam技術(shù)是導(dǎo)航中的一個(gè)基礎(chǔ)模塊,種類很多,有單目,雙目,depth,imu+視覺(jué)等傳感器為基礎(chǔ)的算法。雙目相機(jī)可以很好的適應(yīng)室內(nèi)和室外的環(huán)境。他的體積其實(shí)非常小,segwayRobot使用的camera長(zhǎng)度在10cm左右

Q:現(xiàn)在有無(wú)用于機(jī)器人導(dǎo)航的導(dǎo)航地圖存在,類似車載導(dǎo)航地圖?用于機(jī)器人導(dǎo)航的地圖數(shù)據(jù)有哪些?

免責(zé)聲明:本網(wǎng)部分文章和信息來(lái)源于互聯(lián)網(wǎng),本網(wǎng)轉(zhuǎn)載出于傳遞更多信息和學(xué)習(xí)之目的。如轉(zhuǎn)載稿涉及版權(quán)等問(wèn)題,請(qǐng)立即聯(lián)系網(wǎng)站所有人,我們會(huì)予以更改或刪除相關(guān)文章,保證您的權(quán)利。
五月婷婷欧美视频_少女频道在线观看高清_欧美日韩视频一区二区三区_7777精品伊久久久大香线蕉语言
奇米影视一区二区三区| 日日摸夜夜添夜夜添亚洲女人| 国产精品天干天干在观线| 大美女一区二区三区| 日本一区二区高清| jlzzjlzz欧美大全| 亚洲成人午夜电影| 欧美成人一区二区| 国产一区二区三区精品视频| 国产精品视频观看| 欧美色欧美亚洲另类二区| 久久不见久久见免费视频1| 国产色一区二区| 色av综合在线| 黄网站免费久久| 亚洲女同一区二区| 欧美成人vps| 成人av在线电影| 日韩高清中文字幕一区| 国产欧美一区二区三区在线老狼 | 六月丁香婷婷色狠狠久久| 精品免费一区二区三区| 91在线视频18| 国产一区二区精品久久91| 成人欧美一区二区三区白人| 欧美日本一区二区在线观看| 国产91高潮流白浆在线麻豆 | 成人app下载| 久久97超碰国产精品超碰| 亚洲天堂免费在线观看视频| 精品国产人成亚洲区| 在线观看日韩电影| 成人污污视频在线观看| 麻豆精品国产91久久久久久| 亚洲一卡二卡三卡四卡无卡久久 | 欧美日韩精品一区二区在线播放| 国产精选一区二区三区| 亚洲成人久久影院| 亚洲欧美激情在线| 国产精品电影院| 久久久噜噜噜久久中文字幕色伊伊| 在线视频国内自拍亚洲视频| 成人丝袜18视频在线观看| 国产一区二区三区在线观看精品| 日韩av网站免费在线| 亚洲成年人网站在线观看| 一片黄亚洲嫩模| 夜夜精品浪潮av一区二区三区| 中文字幕日韩欧美一区二区三区| 国产三级精品三级在线专区| 欧美精品一区二区三区视频| 欧美日韩国产一级| 欧美另类z0zxhd电影| 欧美乱妇一区二区三区不卡视频| 欧美日韩免费在线视频| 欧美日本国产视频| 日韩欧美123| 国产亚洲一二三区| 国产农村妇女毛片精品久久麻豆 | 欧美国产在线观看| 成人免费在线视频观看| 亚洲特级片在线| 一区二区三区**美女毛片| 亚州成人在线电影| 久久国产精品免费| 国产精品18久久久久久久久| 福利91精品一区二区三区| 99热这里都是精品| 欧美三级日韩在线| 久久婷婷成人综合色| 一区二区在线观看不卡| 亚洲欧美国产77777| 亚洲国产日产av| 日本女人一区二区三区| 国产福利一区在线观看| 91色porny蝌蚪| 欧美一级在线免费| 国产精品婷婷午夜在线观看| 亚洲永久精品大片| 另类专区欧美蜜桃臀第一页| gogogo免费视频观看亚洲一| 欧美午夜不卡在线观看免费| 亚洲精品一区二区三区在线观看| 国产精品色眯眯| 亚洲va欧美va人人爽| 久久99精品一区二区三区| 97aⅴ精品视频一二三区| 日韩一区二区三区精品视频| 国产亚洲成aⅴ人片在线观看| 亚洲天堂2016| 国产999精品久久久久久| 欧美性猛交一区二区三区精品| 欧美电影免费提供在线观看| 亚洲色图视频网站| 国产精品一区二区免费不卡| 91极品视觉盛宴| 久久久精品日韩欧美| 天天操天天干天天综合网| 从欧美一区二区三区| 91精品久久久久久久91蜜桃| 成人欧美一区二区三区视频网页| 久久99久久99| 91麻豆精品国产自产在线| 亚洲女人****多毛耸耸8| 激情欧美一区二区| 制服丝袜av成人在线看| 亚洲一区在线观看视频| 成人激情综合网站| 久久精品亚洲麻豆av一区二区| 日韩制服丝袜av| 欧美自拍偷拍午夜视频| 亚洲男同1069视频| av中文字幕一区| 国产视频在线观看一区二区三区| 蜜臀久久99精品久久久久久9| 欧美性色黄大片| 一级精品视频在线观看宜春院| 91免费观看视频| 中文字幕一区二区三区不卡在线| 国产酒店精品激情| 国产日韩欧美激情| 国产精品66部| 久久综合色8888| 精品综合久久久久久8888| 777欧美精品| 青青草国产成人99久久| 6080亚洲精品一区二区| 日韩精品亚洲一区二区三区免费| 欧美日韩在线播放三区四区| 亚洲综合图片区| 欧美人妇做爰xxxⅹ性高电影| 亚洲一二三区在线观看| 欧美午夜宅男影院| 亚洲综合999| 欧美精品精品一区| 蜜臀精品久久久久久蜜臀| 久久综合色播五月| 成人高清免费在线播放| 亚洲色图清纯唯美| 欧美日韩精品一区二区三区四区| 五月婷婷欧美视频| 欧美va亚洲va| 福利电影一区二区三区| 亚洲欧洲日产国码二区| 色94色欧美sute亚洲线路一ni| 亚洲一区在线看| 精品久久久久久久久久久久久久久 | 亚洲丶国产丶欧美一区二区三区| 欧美色倩网站大全免费| 日韩福利视频网| 久久久国产午夜精品| heyzo一本久久综合| 亚洲777理论| 中文在线免费一区三区高中清不卡| fc2成人免费人成在线观看播放| 一二三四社区欧美黄| 欧美成人伊人久久综合网| av动漫一区二区| 日韩不卡手机在线v区| 欧美国产精品久久| 欧美高清视频www夜色资源网| 国产成人免费9x9x人网站视频| 青青草精品视频| 久久精品视频在线看| 欧美亚洲综合一区| 国产精品66部| 免费观看久久久4p| 亚洲蜜臀av乱码久久精品| 精品盗摄一区二区三区| 在线一区二区三区| 国产成人自拍网| 日韩精品成人一区二区在线| 亚洲欧洲精品成人久久奇米网| 日韩无一区二区| 色综合久久99| 国产大陆亚洲精品国产| 日本欧美一区二区在线观看| 中文字幕一区二区不卡| www激情久久| 欧美一区二区三区精品| 欧洲国产伦久久久久久久| 国产99久久久国产精品潘金 | 精品999在线播放| 欧美综合一区二区三区| 成人app软件下载大全免费| 激情成人午夜视频| 美女脱光内衣内裤视频久久网站 | 久久蜜桃av一区二区天堂| 成人性生交大片免费看中文| 五月婷婷综合网| 粉嫩一区二区三区性色av| 欧美一级爆毛片| 亚洲免费成人av| 色婷婷av久久久久久久| 国产成人鲁色资源国产91色综| 亚洲精品国产无天堂网2021| 成人亚洲一区二区一| 日韩一区二区三区免费观看| 日韩美女天天操| 欧美成人国产一区二区|