国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

七個流行的強(qiáng)化學(xué)習(xí)算法及代碼實現(xiàn)

人工智能 深度學(xué)習(xí)
目前流行的強(qiáng)化學(xué)習(xí)算法包括 Q-learning、SARSA、DDPG、A2C、PPO、DQN 和 TRPO。 這些算法已被用于在游戲、機(jī)器人和決策制定等各種應(yīng)用中,并且這些流行的算法還在不斷發(fā)展和改進(jìn),本文我們將對其做一個簡單的介紹。

目前流行的強(qiáng)化學(xué)習(xí)算法包括 Q-learning、SARSA、DDPG、A2C、PPO、DQN 和 TRPO。 這些算法已被用于在游戲、機(jī)器人和決策制定等各種應(yīng)用中,并且這些流行的算法還在不斷發(fā)展和改進(jìn),本文我們將對其做一個簡單的介紹。

圖片

1、Q-learning

Q-learning:Q-learning 是一種無模型、非策略的強(qiáng)化學(xué)習(xí)算法。 它使用 Bellman 方程估計最佳動作值函數(shù),該方程迭代地更新給定狀態(tài)動作對的估計值。 Q-learning 以其簡單性和處理大型連續(xù)狀態(tài)空間的能力而聞名。

下面是一個使用 Python 實現(xiàn) Q-learning 的簡單示例:

import numpy as np

# Define the Q-table and the learning rate
Q = np.zeros((state_space_size, action_space_size))
alpha = 0.1

# Define the exploration rate and discount factor
epsilon = 0.1
gamma = 0.99

for episode in range(num_episodes):
current_state = initial_state
while not done:
# Choose an action using an epsilon-greedy policy
if np.random.uniform(0, 1) < epsilon:
action = np.random.randint(0, action_space_size)
else:
action = np.argmax(Q[current_state])

# Take the action and observe the next state and reward
next_state, reward, done = take_action(current_state, action)

# Update the Q-table using the Bellman equation
Q[current_state, action] = Q[current_state, action] + alpha * (reward + gamma * np.max(Q[next_state]) - Q[current_state, action])

current_state = next_state

上面的示例中,state_space_size 和 action_space_size 分別是環(huán)境中的狀態(tài)數(shù)和動作數(shù)。 num_episodes 是要為運行算法的輪次數(shù)。 initial_state 是環(huán)境的起始狀態(tài)。 take_action(current_state, action) 是一個函數(shù),它將當(dāng)前狀態(tài)和一個動作作為輸入,并返回下一個狀態(tài)、獎勵和一個指示輪次是否完成的布爾值。

在 while 循環(huán)中,使用 epsilon-greedy 策略根據(jù)當(dāng)前狀態(tài)選擇一個動作。 使用概率 epsilon選擇一個隨機(jī)動作,使用概率 1-epsilon選擇對當(dāng)前狀態(tài)具有最高 Q 值的動作。

采取行動后,觀察下一個狀態(tài)和獎勵,使用Bellman方程更新q。 并將當(dāng)前狀態(tài)更新為下一個狀態(tài)。這只是 Q-learning 的一個簡單示例,并未考慮 Q-table 的初始化和要解決的問題的具體細(xì)節(jié)。

2、SARSA

SARSA:SARSA 是一種無模型、基于策略的強(qiáng)化學(xué)習(xí)算法。 它也使用Bellman方程來估計動作價值函數(shù),但它是基于下一個動作的期望值,而不是像 Q-learning 中的最優(yōu)動作。 SARSA 以其處理隨機(jī)動力學(xué)問題的能力而聞名。

import numpy as np

# Define the Q-table and the learning rate
Q = np.zeros((state_space_size, action_space_size))
alpha = 0.1

# Define the exploration rate and discount factor
epsilon = 0.1
gamma = 0.99

for episode in range(num_episodes):
current_state = initial_state
action = epsilon_greedy_policy(epsilon, Q, current_state)
while not done:
# Take the action and observe the next state and reward
next_state, reward, done = take_action(current_state, action)
# Choose next action using epsilon-greedy policy
next_action = epsilon_greedy_policy(epsilon, Q, next_state)
# Update the Q-table using the Bellman equation
Q[current_state, action] = Q[current_state, action] + alpha * (reward + gamma * Q[next_state, next_action] - Q[current_state, action])
current_state = next_state
action = next_action

state_space_size和action_space_size分別是環(huán)境中的狀態(tài)和操作的數(shù)量。num_episodes是您想要運行SARSA算法的輪次數(shù)。Initial_state是環(huán)境的初始狀態(tài)。take_action(current_state, action)是一個將當(dāng)前狀態(tài)和作為操作輸入的函數(shù),并返回下一個狀態(tài)、獎勵和一個指示情節(jié)是否完成的布爾值。

在while循環(huán)中,使用在單獨的函數(shù)epsilon_greedy_policy(epsilon, Q, current_state)中定義的epsilon-greedy策略來根據(jù)當(dāng)前狀態(tài)選擇操作。使用概率 epsilon選擇一個隨機(jī)動作,使用概率 1-epsilon對當(dāng)前狀態(tài)具有最高 Q 值的動作。

上面與Q-learning相同,但是采取了一個行動后,在觀察下一個狀態(tài)和獎勵時它然后使用貪心策略選擇下一個行動。并使用Bellman方程更新q表。

3、DDPG

DDPG 是一種用于連續(xù)動作空間的無模型、非策略算法。 它是一種actor-critic算法,其中actor網(wǎng)絡(luò)用于選擇動作,而critic網(wǎng)絡(luò)用于評估動作。 DDPG 對于機(jī)器人控制和其他連續(xù)控制任務(wù)特別有用。

import numpy as np
from keras.models import Model, Sequential
from keras.layers import Dense, Input
from keras.optimizers import Adam

# Define the actor and critic models
actor = Sequential()
actor.add(Dense(32, input_dim=state_space_size, activation='relu'))
actor.add(Dense(32, activation='relu'))
actor.add(Dense(action_space_size, activation='tanh'))
actor.compile(loss='mse', optimizer=Adam(lr=0.001))

critic = Sequential()
critic.add(Dense(32, input_dim=state_space_size, activation='relu'))
critic.add(Dense(32, activation='relu'))
critic.add(Dense(1, activation='linear'))
critic.compile(loss='mse', optimizer=Adam(lr=0.001))

# Define the replay buffer
replay_buffer = []

# Define the exploration noise
exploration_noise = OrnsteinUhlenbeckProcess(size=action_space_size, theta=0.15, mu=0, sigma=0.2)

for episode in range(num_episodes):
current_state = initial_state
while not done:
# Select an action using the actor model and add exploration noise
action = actor.predict(current_state)[0] + exploration_noise.sample()
action = np.clip(action, -1, 1)

# Take the action and observe the next state and reward
next_state, reward, done = take_action(current_state, action)

# Add the experience to the replay buffer
replay_buffer.append((current_state, action, reward, next_state, done))

# Sample a batch of experiences from the replay buffer
batch = sample(replay_buffer, batch_size)

# Update the critic model
states = np.array([x[0] for x in batch])
actions = np.array([x[1] for x in batch])
rewards = np.array([x[2] for x in batch])
next_states = np.array([x[3] for x in batch])

target_q_values = rewards + gamma * critic.predict(next_states)
critic.train_on_batch(states, target_q_values)

# Update the actor model
action_gradients = np.array(critic.get_gradients(states, actions))
actor.train_on_batch(states, action_gradients)

current_state = next_state

在本例中,state_space_size和action_space_size分別是環(huán)境中的狀態(tài)和操作的數(shù)量。num_episodes是輪次數(shù)。Initial_state是環(huán)境的初始狀態(tài)。Take_action (current_state, action)是一個函數(shù),它接受當(dāng)前狀態(tài)和操作作為輸入,并返回下一個操作。

4、A2C

A2C(Advantage Actor-Critic)是一種有策略的actor-critic算法,它使用Advantage函數(shù)來更新策略。 該算法實現(xiàn)簡單,可以處理離散和連續(xù)的動作空間。

import numpy as np
from keras.models import Model, Sequential
from keras.layers import Dense, Input
from keras.optimizers import Adam
from keras.utils import to_categorical

# Define the actor and critic models
state_input = Input(shape=(state_space_size,))
actor = Dense(32, activation='relu')(state_input)
actor = Dense(32, activation='relu')(actor)
actor = Dense(action_space_size, activation='softmax')(actor)
actor_model = Model(inputs=state_input, outputs=actor)
actor_model.compile(loss='categorical_crossentropy', optimizer=Adam(lr=0.001))

state_input = Input(shape=(state_space_size,))
critic = Dense(32, activation='relu')(state_input)
critic = Dense(32, activation='relu')(critic)
critic = Dense(1, activation='linear')(critic)
critic_model = Model(inputs=state_input, outputs=critic)
critic_model.compile(loss='mse', optimizer=Adam(lr=0.001))

for episode in range(num_episodes):
current_state = initial_state
done = False
while not done:
# Select an action using the actor model and add exploration noise
action_probs = actor_model.predict(np.array([current_state]))[0]
action = np.random.choice(range(action_space_size), p=action_probs)

# Take the action and observe the next state and reward
next_state, reward, done = take_action(current_state, action)

# Calculate the advantage
target_value = critic_model.predict(np.array([next_state]))[0][0]
advantage = reward + gamma * target_value - critic_model.predict(np.array([current_state]))[0][0]

# Update the actor model
action_one_hot = to_categorical(action, action_space_size)
actor_model.train_on_batch(np.array([current_state]), advantage * action_one_hot)

# Update the critic model
critic_model.train_on_batch(np.array([current_state]), reward + gamma * target_value)

current_state = next_state

在這個例子中,actor模型是一個神經(jīng)網(wǎng)絡(luò),它有2個隱藏層,每個隱藏層有32個神經(jīng)元,具有relu激活函數(shù),輸出層具有softmax激活函數(shù)。critic模型也是一個神經(jīng)網(wǎng)絡(luò),它有2個隱含層,每層32個神經(jīng)元,具有relu激活函數(shù),輸出層具有線性激活函數(shù)。

使用分類交叉熵?fù)p失函數(shù)訓(xùn)練actor模型,使用均方誤差損失函數(shù)訓(xùn)練critic模型。動作是根據(jù)actor模型預(yù)測選擇的,并添加了用于探索的噪聲。

5、PPO

PPO(Proximal Policy Optimization)是一種策略算法,它使用信任域優(yōu)化的方法來更新策略。 它在具有高維觀察和連續(xù)動作空間的環(huán)境中特別有用。 PPO 以其穩(wěn)定性和高樣品效率而著稱。

import numpy as np
from keras.models import Model, Sequential
from keras.layers import Dense, Input
from keras.optimizers import Adam

# Define the policy model
state_input = Input(shape=(state_space_size,))
policy = Dense(32, activation='relu')(state_input)
policy = Dense(32, activation='relu')(policy)
policy = Dense(action_space_size, activation='softmax')(policy)
policy_model = Model(inputs=state_input, outputs=policy)

# Define the value model
value_model = Model(inputs=state_input, outputs=Dense(1, activation='linear')(policy))

# Define the optimizer
optimizer = Adam(lr=0.001)

for episode in range(num_episodes):
current_state = initial_state
while not done:
# Select an action using the policy model
action_probs = policy_model.predict(np.array([current_state]))[0]
action = np.random.choice(range(action_space_size), p=action_probs)

# Take the action and observe the next state and reward
next_state, reward, done = take_action(current_state, action)

# Calculate the advantage
target_value = value_model.predict(np.array([next_state]))[0][0]
advantage = reward + gamma * target_value - value_model.predict(np.array([current_state]))[0][0]

# Calculate the old and new policy probabilities
old_policy_prob = action_probs[action]
new_policy_prob = policy_model.predict(np.array([next_state]))[0][action]

# Calculate the ratio and the surrogate loss
ratio = new_policy_prob / old_policy_prob
surrogate_loss = np.minimum(ratio * advantage, np.clip(ratio, 1 - epsilon, 1 + epsilon) * advantage)

# Update the policy and value models
policy_model.trainable_weights = value_model.trainable_weights
policy_model.compile(optimizer=optimizer, loss=-surrogate_loss)
policy_model.train_on_batch(np.array([current_state]), np.array([action_one_hot]))
value_model.train_on_batch(np.array([current_state]), reward + gamma * target_value)

current_state = next_state

6、DQN

DQN(深度 Q 網(wǎng)絡(luò))是一種無模型、非策略算法,它使用神經(jīng)網(wǎng)絡(luò)來逼近 Q 函數(shù)。 DQN 特別適用于 Atari 游戲和其他類似問題,其中狀態(tài)空間是高維的,并使用神經(jīng)網(wǎng)絡(luò)近似 Q 函數(shù)。

import numpy as np
from keras.models import Sequential
from keras.layers import Dense, Input
from keras.optimizers import Adam
from collections import deque

# Define the Q-network model
model = Sequential()
model.add(Dense(32, input_dim=state_space_size, activation='relu'))
model.add(Dense(32, activation='relu'))
model.add(Dense(action_space_size, activation='linear'))
model.compile(loss='mse', optimizer=Adam(lr=0.001))

# Define the replay buffer
replay_buffer = deque(maxlen=replay_buffer_size)

for episode in range(num_episodes):
current_state = initial_state
while not done:
# Select an action using an epsilon-greedy policy
if np.random.rand() < epsilon:
action = np.random.randint(0, action_space_size)
else:
action = np.argmax(model.predict(np.array([current_state]))[0])

# Take the action and observe the next state and reward
next_state, reward, done = take_action(current_state, action)

# Add the experience to the replay buffer
replay_buffer.append((current_state, action, reward, next_state, done))

# Sample a batch of experiences from the replay buffer
batch = random.sample(replay_buffer, batch_size)

# Prepare the inputs and targets for the Q-network
inputs = np.array([x[0] for x in batch])
targets = model.predict(inputs)
for i, (state, action, reward, next_state, done) in enumerate(batch):
if done:
targets[i, action] = reward
else:
targets[i, action] = reward + gamma * np.max(model.predict(np.array([next_state]))[0])

# Update the Q-network
model.train_on_batch(inputs, targets)

current_state = next_state

上面的代碼,Q-network有2個隱藏層,每個隱藏層有32個神經(jīng)元,使用relu激活函數(shù)。該網(wǎng)絡(luò)使用均方誤差損失函數(shù)和Adam優(yōu)化器進(jìn)行訓(xùn)練。

7、TRPO

TRPO (Trust Region Policy Optimization)是一種無模型的策略算法,它使用信任域優(yōu)化方法來更新策略。 它在具有高維觀察和連續(xù)動作空間的環(huán)境中特別有用。

TRPO 是一個復(fù)雜的算法,需要多個步驟和組件來實現(xiàn)。TRPO不是用幾行代碼就能實現(xiàn)的簡單算法。

所以我們這里使用實現(xiàn)了TRPO的現(xiàn)有庫,例如OpenAI Baselines,它提供了包括TRPO在內(nèi)的各種預(yù)先實現(xiàn)的強(qiáng)化學(xué)習(xí)算法,。

要在OpenAI Baselines中使用TRPO,我們需要安裝:

pip install baselines

然后可以使用baselines庫中的trpo_mpi模塊在你的環(huán)境中訓(xùn)練TRPO代理,這里有一個簡單的例子:

import gym
from baselines.common.vec_env.dummy_vec_env import DummyVecEnv
from baselines.trpo_mpi import trpo_mpi

#Initialize the environment
env = gym.make("CartPole-v1")
env = DummyVecEnv([lambda: env])

# Define the policy network
policy_fn = mlp_policy

#Train the TRPO model
model = trpo_mpi.learn(env, policy_fn, max_iters=1000)

我們使用Gym庫初始化環(huán)境。然后定義策略網(wǎng)絡(luò),并調(diào)用TRPO模塊中的learn()函數(shù)來訓(xùn)練模型。

還有許多其他庫也提供了TRPO的實現(xiàn),例如TensorFlow、PyTorch和RLLib。下面時一個使用TF 2.0實現(xiàn)的樣例

import tensorflow as tf
import gym

# Define the policy network
class PolicyNetwork(tf.keras.Model):
def __init__(self):
super(PolicyNetwork, self).__init__()
self.dense1 = tf.keras.layers.Dense(16, activation='relu')
self.dense2 = tf.keras.layers.Dense(16, activation='relu')
self.dense3 = tf.keras.layers.Dense(1, activation='sigmoid')

def call(self, inputs):
x = self.dense1(inputs)
x = self.dense2(x)
x = self.dense3(x)
return x

# Initialize the environment
env = gym.make("CartPole-v1")

# Initialize the policy network
policy_network = PolicyNetwork()

# Define the optimizer
optimizer = tf.optimizers.Adam()

# Define the loss function
loss_fn = tf.losses.BinaryCrossentropy()

# Set the maximum number of iterations
max_iters = 1000

# Start the training loop
for i in range(max_iters):
# Sample an action from the policy network
action = tf.squeeze(tf.random.categorical(policy_network(observation), 1))

# Take a step in the environment
observation, reward, done, _ = env.step(action)

with tf.GradientTape() as tape:
# Compute the loss
loss = loss_fn(reward, policy_network(observation))

# Compute the gradients
grads = tape.gradient(loss, policy_network.trainable_variables)

# Perform the update step
optimizer.apply_gradients(zip(grads, policy_network.trainable_variables))

if done:
# Reset the environment
observation = env.reset()

在這個例子中,我們首先使用TensorFlow的Keras API定義一個策略網(wǎng)絡(luò)。然后使用Gym庫和策略網(wǎng)絡(luò)初始化環(huán)境。然后定義用于訓(xùn)練策略網(wǎng)絡(luò)的優(yōu)化器和損失函數(shù)。

在訓(xùn)練循環(huán)中,從策略網(wǎng)絡(luò)中采樣一個動作,在環(huán)境中前進(jìn)一步,然后使用TensorFlow的GradientTape計算損失和梯度。然后我們使用優(yōu)化器執(zhí)行更新步驟。

這是一個簡單的例子,只展示了如何在TensorFlow 2.0中實現(xiàn)TRPO。TRPO是一個非常復(fù)雜的算法,這個例子沒有涵蓋所有的細(xì)節(jié),但它是試驗TRPO的一個很好的起點。

總結(jié)

以上就是我們總結(jié)的7個常用的強(qiáng)化學(xué)習(xí)算法,這些算法并不相互排斥,通常與其他技術(shù)(如值函數(shù)逼近、基于模型的方法和集成方法)結(jié)合使用,可以獲得更好的結(jié)果。


責(zé)任編輯:華軒 來源: DeepHub IMBA
相關(guān)推薦

2020-08-10 06:36:21

強(qiáng)化學(xué)習(xí)代碼深度學(xué)習(xí)

2021-12-07 10:31:33

CIOIT董事會

2023-06-25 11:30:47

可視化

2024-08-30 09:13:56

2015-06-11 13:34:54

編程編程階段

2023-03-23 16:30:53

PyTorchDDPG算法

2023-11-08 14:06:50

2020-11-12 19:31:41

強(qiáng)化學(xué)習(xí)人工智能機(jī)器學(xué)習(xí)

2019-08-12 08:43:53

GitHub代碼開發(fā)者

2022-11-02 14:02:02

強(qiáng)化學(xué)習(xí)訓(xùn)練

2021-07-16 09:00:00

深度學(xué)習(xí)機(jī)器學(xué)習(xí)開發(fā)

2019-10-12 05:07:54

服務(wù)器安全Linux身份驗證

2024-10-12 17:13:53

2019-10-11 09:52:00

Linux服務(wù)器安全

2025-05-28 02:25:00

2019-09-29 10:42:02

人工智能機(jī)器學(xué)習(xí)技術(shù)

2024-12-09 08:45:00

模型AI

2014-03-18 16:12:00

代碼整潔編寫代碼

2021-12-21 11:16:04

云計算云計算環(huán)境云應(yīng)用

2024-10-12 17:14:12

點贊
收藏

51CTO技術(shù)棧公眾號

99这里只有精品| 色噜噜狠狠一区二区三区果冻| 成人性生交大片免费看小说| 欧美理论电影| 久久精品综合网| 欧洲在线视频一区| 成人vr资源| 麻豆国产精品va在线观看不卡| 日本www在线观看视频| 亚洲欧美一区二区久久| 老司机午夜免费福利视频| 一区二区三区在线| 69av成年福利视频| 深夜成人福利| 日韩一级二级三级| 国产毛片av在线| 亚洲高清免费视频| 国产对白国语对白| 久久精品视频网| 国产精品久久久久7777| 久热成人在线视频| 亚洲春色在线视频| 亚洲一区二区三区高清不卡| 成人精品网站在线观看| 奇米狠狠一区二区三区| 免费97视频在线精品国自产拍| 国产白丝在线观看| 91精品国产一区二区三区香蕉| 色就是色亚洲色图| 欧美日韩午夜视频在线观看| 国产在线黄色片| 国产精品区一区二区三区| 国产欧美在线一区| 91丨porny丨中文| 国模无码视频一区二区三区| 成人美女视频在线观看| 日本手机在线视频| 91亚洲精品久久久蜜桃| 日韩精品 欧美| 不卡电影免费在线播放一区| 日韩精品一区二区在线视频| 国产成人综合网| 青青青免费在线| 国产偷国产偷精品高清尤物| 久久久久久三级| 日韩码欧中文字| 好男人看片在线观看免费观看国语| 国产精品婷婷午夜在线观看| 男男gay免费网站| 夜夜揉揉日日人人青青一国产精品 | 欧美经典三级视频一区二区三区| 男女啪啪免费视频网站| 9人人澡人人爽人人精品| 成人午夜视频在线观看免费| 99久久精品免费| 亚洲视频第二页| 夜夜夜精品看看| 欧洲毛片在线| 3atv在线一区二区三区| 17videosex性欧美| 日韩在线视频线视频免费网站| 电影91久久久| 4388成人网| 99久久九九| 欧美一区二区视频在线| 极品美女销魂一区二区三区| 久久久久久www| 国产精品久久久久7777按摩| 一区二区三区四区在线免费视频| 欧美吞精做爰啪啪高潮| 国产精品25p| 九色91av视频| 清纯唯美日韩| 久久精品国产精品青草色艺| 精品中文字幕一区二区小辣椒 | 亚洲天堂精品在线观看| jizzjizzjizz亚洲女| 亚洲午夜私人影院| 免费在线观看av网站| 亚洲欧美一区二区三区四区| av不卡一区二区| 91久久精品一区二区别| 麻豆91在线播放免费| 日本wwww视频| 欧美色播在线播放| 一本大道色婷婷在线| 久久久亚洲网站| 午夜日韩视频| 中文精品无码中文字幕无码专区| 亚洲欧美日韩系列| 国产视频中文字幕在线观看| 久久久www成人免费精品张筱雨| 国产精品嫩草影院在线看| 欧美高清性xxxxhd | japanese色国产在线看视频| 久久99精品久久久久久琪琪| 日韩三级在线| 久久综合婷婷综合| 久久久久综合网| 99re在线视频| 久久国产精品偷| 国产精品s色| 无码人妻丰满熟妇区毛片| 欧美色窝79yyyycom| 91精品网站在线观看| 91精品久久久久久久久久久| 国产成人精品综合在线观看| 三级av在线| 欧美黑人狂野猛交老妇| 久久av一区| 日本激情免费| 日韩在线视频观看正片免费网站| 欧美精品二区| 欧美日韩一区二区三区69堂| 亚洲福利在线播放| 亚洲精彩视频| 簧片在线免费看| 亚洲欧美成人在线| 最新国产乱人伦偷精品免费网站| 免费成人看片| 日韩在线精品视频| 日韩精品国产精品| 天堂视频中文在线| 久久久综合av| 成人动漫精品一区二区| 怡红院在线播放| 99热在线播放| 亚洲一区二区av电影| 亚洲三区欧美一区国产二区| 在线免费观看一区二区三区| 色综合天天综合网国产成人综合天| 香蕉免费一区二区三区在线观看| 图片区小说区区亚洲五月| 欧美日韩综合视频网址| 国产精品一线天粉嫩av| 久热免费在线观看| 国产亚洲精品一区二区| 免费在线一区观看| 黄色片免费在线观看| av一区观看| 亚洲sss视频在线视频| 亚洲自拍电影| 天天色综合6| 九九热最新视频//这里只有精品| 国产成人免费高清| 自拍偷拍欧美视频| 亚洲精品自在在线观看| 日韩午夜激情av| 在线亚洲欧美| av基地在线| 久久综合色一本| 777xxx欧美| 国产精品五区| 18加网站在线| 日韩欧美视频一区二区| 欧美群妇大交群中文字幕| 国产精品大片免费观看| 酒色婷婷桃色成人免费av网| 国产精品网红福利| 伊人一区二区三区| 精品国产91久久久久久浪潮蜜月| 裸体av在线| 国产主播喷水一区二区| 亚洲国产婷婷综合在线精品| 久久在线视频| 国产视频第一页在线观看| 国产精品成人观看视频免费| 欧美美女视频在线观看| 噜噜噜久久亚洲精品国产品小说| 黄色网页在线播放| 亚洲精品国产一区| 久久精品五月| 欧美精品久久| 亚洲精品在线观看网站| 国产精品一区二区久激情瑜伽| gogo亚洲高清大胆美女人体| 草草视频在线免费观看| 久久999免费视频| 一级精品视频在线观看宜春院| 999久久久国产精品| 中国日本在线视频中文字幕| 亚洲欧美99| 久久综合免费视频影院| 亚洲视频精选在线| 欧美日韩精品| 性欧美又大又长又硬| 午夜精品在线免费观看| 国产美女精品视频| 欧美xxx久久| 久久精品一区二区| 忘忧草精品久久久久久久高清| 黄色成人在线| www.日本在线视频| 奇米一区二区三区四区久久| 色狠狠av一区二区三区| 国产精品亚洲视频| 欧美热在线视频精品999| aaa在线观看| 人人干视频在线| 国产精品久久婷婷六月丁香|