亚洲一区二区三区乱码在线欧洲_亚洲深深色噜噜狠狠网站_亚洲无砖砖区免费_亚洲综合色区中文字幕

當(dāng)前位置: 首頁 > 綜合 >

大數(shù)據(jù)必知必會:Hadoop(3)集群環(huán)境安裝

2023-02-10 03:04:31 來源:騰訊云

安裝前準備

集群環(huán)境下,至少需要3臺服務(wù)器。

IP地址

主機名稱


(資料圖片僅供參考)

10.0.0.5

node1

10.0.0.6

node2

10.0.0.7

node3

需要保證每臺服務(wù)器的配置都一致,以下步驟在3臺服務(wù)器上都需要做一次。

操作系統(tǒng)準備

本次安裝采用的操作系統(tǒng)是Ubuntu 20.04。

更新一下軟件包列表。

sudo apt-get update

安裝Java 8+

使用命令安裝Java 8。

sudo apt-get install -y openjdk-8-jdk

配置環(huán)境變量。

vi ~/.bashrcexport JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

讓環(huán)境變量生效。

source ~/.bashrc

下載Hadoop安裝包

從Hadoop官網(wǎng)Apache Hadoop下載安裝包軟件。

image-20230120200957218

或者直接通過命令下載。

wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
image-20230122004400490

分布式集群安裝

分布式集群是在多個節(jié)點上運行進程來實現(xiàn)Hadoop集群。

配置域名解析

在后續(xù)使用過程中,都使用主機名稱,所以需要配置域名解析。

配置 /etc/hosts

由于該配置文件的修改需要root權(quán)限,所以在每個節(jié)點上都手動配置。

10.0.0.5 node110.0.0.6 node210.0.0.7 node3

以下配置過程在node1上完成,并且配置完成后將配置文件復(fù)制到其他節(jié)點。

配置免密登錄

Hadoop分布式集群的運行,需要配置密鑰對實現(xiàn)免密登錄。

創(chuàng)建公私鑰對
hadoop@node1:~$ ssh-keygen -t rsaGenerating public/private rsa key pair.Enter file in which to save the key (/home/hadoop/.ssh/id_rsa): Enter passphrase (empty for no passphrase): Enter same passphrase again: Your identification has been saved in /home/hadoop/.ssh/id_rsaYour public key has been saved in /home/hadoop/.ssh/id_rsa.pubThe key fingerprint is:SHA256:pp2AC1bQAQ5J6CJJCij1QA7bgKOsVxpoPVNi+cxhcyg hadoop@node1The key"s randomart image is:+---[RSA 3072]----+|O=*oo..          ||OX E.* .         ||X+* @ +          ||B+.=.=           ||= o++ . S        ||..o. . = .       || .  . . o        ||                 ||                 |+----[SHA256]-----+
復(fù)制公鑰
hadoop@node1:~$ cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
復(fù)制到其他節(jié)點
hadoop@node1:~$ scp -r .ssh node1:~/id_rsa.pub                                   100%  566     1.7MB/s   00:00    authorized_keys                              100%  566     2.0MB/s   00:00    known_hosts                                  100% 1332     4.5MB/s   00:00    id_rsa                                       100% 2602    10.1MB/s   00:00    hadoop@node1:~$ scp -r .ssh node2:~/hadoop@node2"s password: id_rsa.pub                                   100%  566   934.6KB/s   00:00    authorized_keys                              100%  566   107.3KB/s   00:00    known_hosts                                  100% 1332     2.5MB/s   00:00    id_rsa                                       100% 2602     4.8MB/s   00:00    hadoop@node1:~$ scp -r .ssh node3:~/hadoop@node3"s password: id_rsa.pub                                   100%  566     1.0MB/s   00:00    authorized_keys                              100%  566     1.3MB/s   00:00    known_hosts                                  100% 1332     2.8MB/s   00:00    id_rsa                                       100% 2602     5.2MB/s   00:00    

確保執(zhí)行ssh命令的時候不需要輸入密碼。

hadoop@node1:~$ ssh node1hadoop@node1:~$ ssh node2hadoop@node1:~$ ssh node3

解壓安裝包

將安裝包解壓到目標路徑。

hadoop@node1:~$ mkdir -p appshadoop@node1:~$ tar -xzf hadoop-3.3.4.tar.gz -C apps
image-20230122005658601

bin目錄下存放的是Hadoop相關(guān)的常用命令,比如操作HDFS的hdfs命令,以及hadoop、yarn等命令。

etc目錄下存放的是Hadoop的配置文件,對HDFS、MapReduce、YARN以及集群節(jié)點列表的配置都在這個里面。

sbin目錄下存放的是管理集群相關(guān)的命令,比如啟動集群、啟動HDFS、啟動YARN、停止集群等的命令。

share目錄下存放了一些Hadoop的相關(guān)資源,比如文檔以及各個模塊的Jar包。

配置環(huán)境變量

在集群的每個節(jié)點上都配置Hadoop的環(huán)境變量,Hadoop集群在啟動的時候可以使用start-all.sh一次性啟動集群中的HDFS和Yarn,為了能夠正常使用該命令,需要將其路徑配置到環(huán)境變量中。

hadoop@node1:~$ vi ~/.bashrcexport HADOOP_HOME=/home/hadoop/apps/hadoop-3.3.4export HADOOP_CONF_DIR=/home/hadoop/apps/hadoop-3.3.4/etc/hadoopexport YARN_CONF_DIR=/home/hadoop/apps/hadoop-3.3.4/etc/hadoopexport PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

使環(huán)境變量生效。

hadoop@node1:~$ source ~/.bashrc

配置Hadoop集群

Hadoop軟件安裝完成后,每個節(jié)點上的Hadoop都是獨立的軟件,需要進行配置才能組成Hadoop集群。Hadoop的配置文件在$HADOOP_HOME/etc/hadoop目錄下,主要配置文件有6個:

hadoop-env.sh主要配置Hadoop環(huán)境相關(guān)的信息,比如安裝路徑、配置文件路徑等;core-site.xml是Hadoop的核心配置文件,主要配置了Hadoop的NameNode的地址、Hadoop產(chǎn)生的文件目錄等信息;hdfs-site.xml是HDFS分布式文件系統(tǒng)相關(guān)的配置文件,主要配置了文件的副本數(shù)、HDFS文件系統(tǒng)在本地對應(yīng)的目錄等;mapred-site.xml是關(guān)于MapReduce的配置文件,主要配置MapReduce在哪里運行;yarn-site.xml是Yarn相關(guān)的配置文件,主要配置了Yarn的管理節(jié)點ResourceManager的地址、NodeManager獲取數(shù)據(jù)的方式等;workers是集群中節(jié)點列表的配置文件,只有在這個文件里面配置了的節(jié)點才會加入到Hadoop集群中,否則就是一個獨立節(jié)點。

這幾個配置文件如果不存在,可以通過復(fù)制配置模板的方式創(chuàng)建,也可以通過創(chuàng)建新文件的方式創(chuàng)建。需要保證在集群的每個節(jié)點上這6個配置保持同步,可以在每個節(jié)點單獨配置,也可以在一個節(jié)點上配置完成后同步到其他節(jié)點。

hadoop-env.sh配置

hadoop@node1:~$ vi $HADOOP_HOME/etc/hadoop/hadoop-env.shexport JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64export HADOOP_HOME=/home/hadoop/apps/hadoop-3.3.4export HADOOP_CONF_DIR=/home/hadoop/apps/hadoop-3.3.4/etc/hadoopexport HADOOP_LOG_DIR=/home/hadoop/logs/hadoop

core-site.xml配置

hadoop@node1:~$ vi $HADOOP_HOME/etc/hadoop/core-site.xml          fs.defaultFS      hdfs://node1:8020              hadoop.tmp.dir      /home/hadoop/data/hadoop/temp              hadoop.proxyuser.hadoop.hosts      *              hadoop.proxyuser.hadoop.groups      *    

hdfs-site.xml配置

hadoop@node1:~$ vi $HADOOP_HOME/etc/hadoop/hdfs-site.xml            dfs.replication        3              dfs.namenode.name.dir      /home/hadoop/data/hadoop/hdfs/name              dfs.datanode.data.dir      /home/hadoop/data/hadoop/hdfs/data    

mapred-site.xml配置

hadoop@node1:~$ vi $HADOOP_HOME/etc/hadoop/mapred-site.xml            mapreduce.framework.name        yarn                mapreduce.application.classpath        $HADOOP_HOME/share/hadoop/mapreduce/*:$HADOOP_HOME/share/hadoop/mapreduce/lib/*    

yarn-site.xml配置

hadoop@node1:~$ vi $HADOOP_HOME/etc/hadoop/yarn-site.xml          yarn.nodemanager.aux-services      mapreduce_shuffle                  yarn.resourcemanager.hostname        node1    

workers配置

hadoop@node1:~$ vi $HADOOP_HOME/etc/hadoop/workersnode1node2node3

將軟件及配置信息復(fù)制到其他節(jié)點

在node1上配置好環(huán)境變量及配置文件,可以手動再在其他節(jié)點上完成同樣的配置,或者直接將node1的文件復(fù)制到其他節(jié)點。

hadoop@node1:~$ scp -r .bashrc apps node2:~/hadoop@node1:~$ scp -r .bashrc apps node3:~/

格式化NameNode

在啟動集群前,需要對NameNode進行格式化,在node1上執(zhí)行以下命令:

hadoop@node1:~$ hdfs namenode -format

啟動集群

在node1上執(zhí)行start-all.sh命令啟動集群。

hadoop@node1:~$ jps55936 Jpshadoop@node1:~$ start-all.shWARNING: Attempting to start all Apache Hadoop daemons as hadoop in 10 seconds.WARNING: This is not a recommended production deployment configuration.WARNING: Use CTRL-C to abort.Starting namenodes on [node1]Starting datanodesnode2: WARNING: /home/hadoop/logs/hadoop does not exist. Creating.node3: WARNING: /home/hadoop/logs/hadoop does not exist. Creating.Starting secondary namenodes [node1]WARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.Starting resourcemanagerWARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.Starting nodemanagersWARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.node3: WARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.node2: WARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.node1: WARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.hadoop@node1:~$ jps57329 ResourceManager57553 NodeManager57027 SecondaryNameNode58165 Jps56437 NameNode56678 DataNode

驗證Hadoop

訪問HDFS

上傳一個文件到HDFS。

hdfs dfs -put .bashrc /

打開HDFS Web UI查看相關(guān)信息,默認端口9870。

image-20230122011646516
image-20230122011729528
image-20230122011803241

訪問YARN

打開YARN Web UI查看相關(guān)信息,默認端口8088。

image-20230122011843198

相關(guān)命令

HDFS相關(guān)的命令

操作HDFS使用的命令是hdfs,命令格式為:

Usage: hdfs [OPTIONS] SUBCOMMAND [SUBCOMMAND OPTIONS]

支持的Client命令主要有:

Client Commands:classpath            prints the class path needed to get the hadoop jar and the required librariesdfs                  run a filesystem command on the file systemenvvars              display computed Hadoop environment variablesfetchdt              fetch a delegation token from the NameNodegetconf              get config values from configurationgroups               get the groups which users belong tolsSnapshottableDir   list all snapshottable dirs owned by the current usersnapshotDiff         diff two snapshots of a directory or diff the current directory contents with a snapshotversion              print the version

YARN相關(guān)的命令

操作HDFS使用的命令是yarn,命令格式為:

Usage: yarn [OPTIONS] SUBCOMMAND [SUBCOMMAND OPTIONS] or    yarn [OPTIONS] CLASSNAME [CLASSNAME OPTIONS]  where CLASSNAME is a user-provided Java class

支持的Client命令主要有:

Client Commands:applicationattempt   prints applicationattempt(s) reportapp|application      prints application(s) report/kill application/manage long running applicationclasspath            prints the class path needed to get the hadoop jar and the required librariescluster              prints cluster informationcontainer            prints container(s) reportenvvars              display computed Hadoop environment variablesfs2cs                converts Fair Scheduler configuration to Capacity Scheduler (EXPERIMENTAL)jar             run a jar filelogs                 dump container logsnodeattributes       node attributes cli clientqueue                prints queue informationschedulerconf        Updates scheduler configurationtimelinereader       run the timeline reader servertop                  view cluster informationversion              print the version

yarn jar 可以執(zhí)行一個jar文件。

驗證案例1,統(tǒng)計含有“dfs”的字符串

創(chuàng)建一個input目錄。

hadoop@node1:~$ hdfs dfs -mkdir /input

將Hadoop的配置文件復(fù)制到input目錄下。

hadoop@node1:~$ hdfs dfs -put apps/hadoop-3.3.4/etc/hadoop/*.xml /input/

以下命令用于執(zhí)行一個Hadoop自帶的樣例程序,統(tǒng)計input目錄中含有dfs的字符串,結(jié)果輸出到output目錄。

hadoop@node1:~$ yarn jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar grep /input /output "dfs[a-z.]+"
image-20230122012114789

在YARN上可以看到提交的Job。

image-20230122012159358

執(zhí)行結(jié)果為:

hadoop@node1:~$ hdfs dfs -cat /output/*1       dfsadmin1       dfs.replication1       dfs.namenode.name.dir1       dfs.datanode.data.dir
驗證案例2,計算圓周率

同樣執(zhí)行Hadoop自帶的案例,計算圓周率。

hadoop@node1:~$ yarn jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar pi 10 10

執(zhí)行結(jié)果為:

hadoop@node1:~$ yarn jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar pi 10 10WARNING: YARN_CONF_DIR has been replaced by HADOOP_CONF_DIR. Using value of YARN_CONF_DIR.Number of Maps  = 10Samples per Map = 10Wrote input for Map #0Wrote input for Map #1Wrote input for Map #2Wrote input for Map #3Wrote input for Map #4Wrote input for Map #5Wrote input for Map #6Wrote input for Map #7Wrote input for Map #8Wrote input for Map #9Starting Job... ...Job Finished in 43.014 secondsEstimated value of Pi is 3.20000000000000000000

在YARN上可以看到提交的Job。

image-20230122012444050
標簽: Hadoop Bash Bash
最近更新
15037178970
婚姻法
結(jié)婚前你需要想明白這3點 婚前財產(chǎn)和婚后財產(chǎn)的問題一定要明白
知道這些不止能在婚姻出問題時保護你 更能讓你少踩婚姻中的一些雷區(qū)
如果你的另一半出軌了你要離婚嗎?如果離婚應(yīng)該怎么去做呢?
夫妻之間發(fā)生爭執(zhí)之后多數(shù)人會選擇冷戰(zhàn) 這里的冷戰(zhàn)屬于冷暴力嗎?
遭遇家庭冷暴力應(yīng)該怎么辦?這六種方式用以應(yīng)對家庭“冷暴力”
家庭冷暴力與傳統(tǒng)的家庭暴力不同 面對家庭冷暴力應(yīng)該如何取證?
究竟什么是家庭冷暴力呢?家庭冷暴力常見的特征都有什么呢?
夫妻離婚財產(chǎn)如何分配?子女的撫養(yǎng)權(quán)應(yīng)該歸屬哪一方所有呢?
子女的撫養(yǎng)費具體有哪幾項呢?婚姻法離婚撫養(yǎng)費規(guī)定的標準是什么呢?
婚姻法離婚撫養(yǎng)費法規(guī)內(nèi)容是怎樣的?關(guān)于撫養(yǎng)費的幾個問題是什么?
知識糾紛
1 哪些可以申請專利?專利可以同時多個人一起申請嗎?
2 專利申請收費標準是怎樣的?申請不同類型的專利所需要的錢不同
3 專利實施許可合同讓與人有哪些主要義務(wù)?專利實施許可合同與專利許可合同有什么區(qū)別?
4 哪些情形實施專利強制許可?專利強制許可的前提條件是什么?
5 專利無效的法律后果有哪些?專利的無效情形有哪些?
6 專利駁回復(fù)審具體有多長時間?哪些情況下專利申請可能被駁回?
7 發(fā)明專利權(quán)的保護期限是多少年?非專利發(fā)明人是否有專利申請權(quán)?
8 侵犯專利權(quán)的賠償計算方式是什么?侵犯專利權(quán)的訴訟時效為多長時間?
公司法
企業(yè)改制的含義 有哪些方式?改制后國企員工屬于什么性質(zhì)?
民營企業(yè)改制中的隱形債務(wù)問題 面對隱形債務(wù)問題應(yīng)該如何解決?
旅行社經(jīng)營范圍變更的審核告知事項 旅游業(yè)的發(fā)展現(xiàn)狀和趨勢
企業(yè)無常加班是否可以匿名舉報?強制加班公司沒有加班費怎么辦?
企業(yè)清理欠款時應(yīng)注意什么問題?企業(yè)短期借款需要注意哪些事項?
什么是中小企業(yè)集合票據(jù)和超級短期融資券?一起來了解一下吧!
一人有限責(zé)任公司與個人獨資企業(yè)的區(qū)別 這些知識你都知道嗎?
有限責(zé)任公司股權(quán)轉(zhuǎn)讓具體有哪些形式?來了解下這五種形式
一人公司設(shè)立時應(yīng)當(dāng)注意的問題 一人公司的特征
公司股東之間股權(quán)轉(zhuǎn)讓計稅基礎(chǔ)怎么確認?公司股東之間的股權(quán)轉(zhuǎn)讓要符合什么要件?
合同法
客運合同中旅客的權(quán)利義務(wù)一覽 主要包括這些內(nèi)容

2022-09-01

運輸承攬合同司法解釋 運輸合同中承運人的義務(wù)有哪些

2022-09-01

裝修合同簽訂流程法律法規(guī)一覽 律師解答

2022-09-01

建筑工程承包人最主要的義務(wù)一覽 承包合同內(nèi)容介紹

2022-09-01

監(jiān)控安裝合同書的內(nèi)容格式介紹 一般包括這些條款

2022-09-01

委托書可以撤銷嗎 房屋買賣公證可否撤銷

2022-09-01

勞動糾紛
客運合同中旅客的權(quán)利義務(wù)一覽 主要包括這些內(nèi)容
運輸承攬合同司法解釋 運輸合同中承運人的義務(wù)有哪些
裝修合同簽訂流程法律法規(guī)一覽 律師解答
建筑工程承包人最主要的義務(wù)一覽 承包合同內(nèi)容介紹
監(jiān)控安裝合同書的內(nèi)容格式介紹 一般包括這些條款
委托書可以撤銷嗎 房屋買賣公證可否撤銷

法律解答網(wǎng)版權(quán)所有 2005-2022

亚洲一区二区三区乱码在线欧洲_亚洲深深色噜噜狠狠网站_亚洲无砖砖区免费_亚洲综合色区中文字幕

      亚洲午夜av在线| 懂色av中文一区二区三区| 喷水一区二区三区| 久久99国产精品麻豆| 国产精品综合一区二区三区| bt7086福利一区国产| 91老师片黄在线观看| 国产精品理论片| 亚洲国产精品欧美一二99| 婷婷中文字幕一区三区| 欧美三片在线视频观看| 日韩欧美中文字幕精品| 久久精品视频在线看| 亚洲免费av高清| 亚洲高清在线精品| 韩国欧美国产1区| 91视频91自| 亚洲免费av高清| 在线精品国精品国产尤物884a| 日韩一卡二卡三卡| 国产精品乱码妇女bbbb| 一区二区三区四区视频精品免费 | 日韩一区二区精品| 亚洲国产精品久久久久秋霞影院| www.视频一区| 色婷婷av一区二区三区大白胸 | 懂色av一区二区三区免费看| 亚洲欧美日韩国产手机在线 | 国产欧美一区二区在线| 亚洲国产精品久久不卡毛片 | 色婷婷综合久久久中文一区二区| 国产日韩v精品一区二区| 精品一区二区三区在线观看 | 亚洲码国产岛国毛片在线| 欧美大片在线观看| 中文字幕一区二区三区色视频 | 欧美一区二区三区小说| 中文字幕国产精品一区二区| 日韩中文字幕91| 国产成人综合自拍| 国产女人18毛片水真多成人如厕| 亚洲一级在线观看| 亚洲一二三区在线观看| 日韩女优制服丝袜电影| 1024成人网| 黑人巨大精品欧美一区| 日韩美女视频一区| 欧美一区二区三区爱爱| 日韩精品一级二级| 北条麻妃一区二区三区| 亚洲国产成人av网| 亚洲国产精品激情在线观看| 奇米一区二区三区av| 中文字幕在线不卡一区二区三区| 色婷婷精品大在线视频| ㊣最新国产の精品bt伙计久久| 成人免费观看男女羞羞视频| 亚洲男人电影天堂| 久久九九影视网| 国产美女一区二区| 一本一道波多野结衣一区二区| 久久精品一二三| 国产在线麻豆精品观看| 国产精品免费aⅴ片在线观看| 另类综合日韩欧美亚洲| 久久久久久久久蜜桃| 色噜噜狠狠一区二区三区果冻| 亚洲精品日韩综合观看成人91| 久久亚洲私人国产精品va媚药| 91 com成人网| 亚洲午夜私人影院| 国产精品全国免费观看高清 | 亚洲自拍偷拍九九九| 精品久久国产字幕高潮| 天堂资源在线中文精品| 亚洲免费在线观看视频| 国产精品久久久久久久久免费樱桃| 99精品国产热久久91蜜凸| 亚洲va欧美va人人爽| 国产精品久久久久久久久搜平片| 99精品久久久久久| 欧美成人一区二区三区| 国产精品夜夜嗨| 欧美色综合天天久久综合精品| 午夜精品久久久久久久99水蜜桃| 久久久精品免费免费| 欧美精品一二三区| 午夜精品免费在线| 一区二区欧美国产| 国产欧美一区二区三区在线看蜜臀 | 亚洲男同性恋视频| 26uuu另类欧美| 久久欧美一区二区| 精品一区二区免费视频| 在线观看日韩av先锋影音电影院| 日韩电影在线一区| 色综合久久久网| 日韩成人精品在线观看| 色综合久久综合网97色综合| 天堂va蜜桃一区二区三区漫画版| 一区二区三区视频在线观看| 一区二区三区四区av| 亚洲精品国产品国语在线app| 亚洲蜜臀av乱码久久精品| 成人欧美一区二区三区白人 | 亚洲国产成人一区二区三区| 国产精品久久久久精k8 | 91在线免费看| 久久精品无码一区二区三区| 久久日韩粉嫩一区二区三区| 国产日韩欧美激情| 国产精品―色哟哟| 尤物视频一区二区| 亚洲午夜在线视频| 欧美a一区二区| 欧美精品 日韩| www.视频一区| 国产精品日产欧美久久久久| 国产精品美女久久久久aⅴ| 亚洲青青青在线视频| 夜夜嗨av一区二区三区网页 | 亚洲欧美偷拍三级| 亚洲大尺度视频在线观看| 男男视频亚洲欧美| 制服.丝袜.亚洲.另类.中文| av激情综合网| 国产精品久久一卡二卡| 亚洲美女区一区| 青青国产91久久久久久| 欧美精品在线观看播放| 99久久精品费精品国产一区二区| 欧美激情一区二区三区蜜桃视频| 国产精品美女久久久久久| 亚洲午夜电影网| 欧美日韩亚洲高清一区二区| 蜜臀av性久久久久蜜臀aⅴ四虎 | 午夜成人免费视频| 欧美三级资源在线| 97se亚洲国产综合自在线观| 国产精品视频观看| 亚洲午夜影视影院在线观看| 蓝色福利精品导航| 久久综合国产精品| 91影院在线免费观看| 中文字幕欧美一区| 五月综合激情婷婷六月色窝| 国产乱子伦视频一区二区三区 | 国内精品国产成人国产三级粉色 | 极品少妇xxxx偷拍精品少妇| 久久综合久久综合久久综合| 国产精品毛片久久久久久| 亚洲成av人**亚洲成av**| 欧美精品日韩一区| 久久久久久9999| 亚洲成年人影院| 91精品蜜臀在线一区尤物| 欧美激情一区二区三区全黄| 亚洲成av人综合在线观看| 欧美一区二区三区四区五区| 亚洲国产精品激情在线观看| 日韩国产在线观看| 欧美成人伊人久久综合网| 日韩美女精品在线| 国产一区二区中文字幕| 日本一区二区三级电影在线观看| 亚洲一区在线播放| 国产a久久麻豆| 久久久久久久久久电影| 一区二区三区不卡视频| 国产电影精品久久禁18| 自拍偷在线精品自拍偷无码专区 | 一区二区三区中文在线| 国产传媒一区在线| 亚洲乱码精品一二三四区日韩在线| 欧美午夜寂寞影院| 国产盗摄一区二区三区| 综合av第一页| 欧美久久一二区| 亚洲欧洲国产日韩| 国产一区二区三区在线观看精品| 国产精品伦理一区二区| 欧美性猛片xxxx免费看久爱| 国产欧美视频一区二区三区| 亚洲精品免费在线观看| 欧美精品 国产精品| 成人欧美一区二区三区在线播放| 久久激情综合网| 国产精品久久久久精k8| 欧美精品久久天天躁| 亚洲天天做日日做天天谢日日欢| 国产一区二区三区免费| 亚洲精品日日夜夜| 日韩欧美一区二区三区在线| 亚洲一区二区在线观看视频| 97精品视频在线观看自产线路二| 日韩国产精品久久| 中文字幕日韩欧美一区二区三区| 欧美久久久久久蜜桃| 亚洲激情欧美激情| 久久午夜电影网|