免费围棋ai(illustrator围棋棋盘如何绘制)
本文目录
illustrator围棋棋盘如何绘制
围棋,中国古时称“弈”,是中华传承竞技游戏!今天,我们将为使用到ai软件将围棋棋盘绘制出来,教会大家ai软件绘制技巧!感兴趣的小伙伴就可以学习操作起来!自学ai有捷径,跟着学就对了!上的ai自学视频课,系统、专业、全面,循序渐进,闯关式的学习模式让你逐步拿下ai知识点,学习不枯燥!
illustrator围棋棋盘绘制方法:
1、新建文档,如图。
2、选择矩形网格工具,进行如图参数设置。
3、确定后,调整好矩形网格的位置,填充灰色,效果如图。
4、选择椭圆工具,按住shift键,画一个正圆。如图。
5、对正圆设置渐变填充,参数及效果如图。
6、对黑棋子复制粘贴到不同的位置,效果如图。
7、选择其中一枚黑棋,去年描边,然后设置渐变填充,参数及效果如图。
8、复制白棋到不同的位置,完成最终效果。
以上就是“illustrator围棋棋盘如何绘制?”的全部内容分享了,你可以跟着教程步骤学习操作哦,相信能够很快学会!更多ai精彩分享尽在ai文章区,即刻点开获取更多资讯!如果你想要高效率地自学ai设计,那么的ai自学课真的很不错,专业讲师,系统课程,案例实操,短期学会!不信,你就来免费学习体验先吧!
自学围棋的AlphaGo Zero,你也可以造一个
- 01
遥想当年,AlphaGo的Master版本,在完胜柯洁九段之后不久,就被后辈AlphaGo Zero (简称狗零) 击溃了。
从一只完全不懂围棋的AI,到打败Master,狗零只用了21天。
而且,它不需要用人类知识来喂养,成为顶尖棋手全靠自学。
如果能培育这样一只AI,即便自己不会下棋,也可以很骄傲吧。
于是,来自巴黎的少年Dylan Djian (简称小笛) ,就照着狗零的论文去实现了一下。
他给自己的AI棋手起名SuperGo,也提供了代码 (传送门见文底) 。
除此之外,还有教程——
一个身子两个头
智能体分成三个部分:
一是特征提取器 (Feature Extractor) ,二是策略网络 (Policy Network) ,三是价值网络(Value Network) 。
于是,狗零也被亲切地称为“双头怪”。特征提取器是身子,其他两个网络是脑子。
特征提取器
特征提取模型,是个残差网络 (ResNet) ,就是给普通CNN加上了跳层连接 (Skip Connection) , 让梯度的传播更加通畅。
跳跃的样子,写成代码就是:
1class BasicBlock(nn.Module):
2 """
3 Basic residual block with 2 convolutions and a skip connection
4 before the last ReLU activation.
5 """
6
7 def __init__(self, inplanes, planes, stride=1, downsample=None):
8 super(BasicBlock, self).__init__()
9
10 self.conv1 = nn.Conv2d(inplanes, planes, kernel_size=3,
11 stride=stride, padding=1, bias=False)
12 self.bn1 = nn.BatchNorm2d(planes)
13
14 self.conv2 = nn.Conv2d(planes, planes, kernel_size=3,
15 stride=stride, padding=1, bias=False)
16 self.bn2 = nn.BatchNorm2d(planes)
17
18
19 def forward(self, x):
20 residual = x
21
22 out = self.conv1(x)
23 out = F.relu(self.bn1(out))
24
25 out = self.conv2(out)
26 out = self.bn2(out)
27
28 out += residual
29 out = F.relu(out)
30
31 return out
然后,把它加到特征提取模型里面去:
1class Extractor(nn.Module):
2 def __init__(self, inplanes, outplanes):
3 super(Extractor, self).__init__()
4 self.conv1 = nn.Conv2d(inplanes, outplanes, stride=1,
5 kernel_size=3, padding=1, bias=False)
6 self.bn1 = nn.BatchNorm2d(outplanes)
7
8 for block in range(BLOCKS):
9 setattr(self, "res{}".format(block), \
10 BasicBlock(outplanes, outplanes))
11
12
13 def forward(self, x):
14 x = F.relu(self.bn1(self.conv1(x)))
15 for block in range(BLOCKS - 1):
16 x = getattr(self, "res{}".format(block))(x)
17
18 feature_maps = getattr(self, "res{}".format(BLOCKS - 1))(x)
19 return feature_maps
策略网络
策略网络就是普通的CNN了,里面有个批量标准化 (Batch Normalization) ,还有一个全连接层,输出概率分布。
1class PolicyNet(nn.Module):
2 def __init__(self, inplanes, outplanes):
3 super(PolicyNet, self).__init__()
4 self.outplanes = outplanes
5 self.conv = nn.Conv2d(inplanes, 1, kernel_size=1)
6 self.bn = nn.BatchNorm2d(1)
7 self.logsoftmax = nn.LogSoftmax(dim=1)
8 self.fc = nn.Linear(outplanes - 1, outplanes)
9
10
11 def forward(self, x):
12 x = F.relu(self.bn(self.conv(x)))
13 x = x.view(-1, self.outplanes - 1)
14 x = self.fc(x)
15 probas = self.logsoftmax(x).exp()
16
17 return probas
价值网络
这个网络稍微复杂一点。除了标配之外,还要再多加一个全连接层。最后,用双曲正切 (Hyperbolic Tangent) 算出 (-1,1) 之间的数值,来表示当前状态下的赢面多大。
代码长这样——
1class ValueNet(nn.Module):
2 def __init__(self, inplanes, outplanes):
3 super(ValueNet, self).__init__()
4 self.outplanes = outplanes
5 self.conv = nn.Conv2d(inplanes, 1, kernel_size=1)
6 self.bn = nn.BatchNorm2d(1)
7 self.fc1 = nn.Linear(outplanes - 1, 256)
8 self.fc2 = nn.Linear(256, 1)
9
10
11 def forward(self, x):
12 x = F.relu(self.bn(self.conv(x)))
13 x = x.view(-1, self.outplanes - 1)
14 x = F.relu(self.fc1(x))
15 winning = F.tanh(self.fc2(x))
16 return winning
未雨绸缪的树
狗零,还有一个很重要的组成部分,就是蒙特卡洛树搜索 (MCTS) 。
它可以让AI棋手提前找出,胜率最高的落子点。
在模拟器里,模拟对方的下一手,以及再下一手,给出应对之策,所以提前的远不止是一步。
节点 (Node)
树上的每一个节点,都代表一种不同的局势,有不同的统计数据:
每个节点被经过的次数n,总动作值w,经过这一点的先验概率p,平均动作值q (q=w/n) ,还有从别处来到这个节点走的那一步,以及从这个节点出发、所有可能的下一步。
1class Node:
2 def __init__(self, parent=None, proba=None, move=None):
3 self.p = proba
4 self.n = 0
5 self.w = 0
6 self.q = 0
7 self.children =
8 self.parent = parent
9 self.move = move
部署 (Rollout)
第一步是PUCT (多项式上置信树) 算法,选择能让PUCT函数 (下图) 的某个变体 (Variant) 最大化,的走法。
写成代码的话——
1def select(nodes, c_puct=C_PUCT):
2 " Optimized version of the selection based of the PUCT formula "
3
4 total_count = 0
5 for i in range(nodes.shape):
6 total_count += nodes
7
8 action_scores = np.zeros(nodes.shape)
9 for i in range(nodes.shape):
10 action_scores * \
11 (np.sqrt(total_count) / (1 + nodes))
12
13 equals = np.where(action_scores == np.max(action_scores))
14 if equals.shape 》 0:
15 return np.random.choice(equals)
16 return equals
结束 (Ending)
选择在不停地进行,直至到达一个叶节点 (Leaf Node) ,而这个节点还没有往下生枝。
1def is_leaf(self):
2 """ Check whether a node is a leaf or not """
3
4 return len(self.children) == 0
到了叶节点,那里的一个随机状态就会被评估,得出所有“下一步”的概率。
所有被禁的落子点,概率会变成零,然后重新把总概率归为1。
然后,这个叶节点就会生出枝节 (都是可以落子的位置,概率不为零的那些) 。代码如下——
1def expand(self, probas):
2 self.children = ) \
3 for idx in range(probas.shape
更新一下
枝节生好之后,这个叶节点和它的妈妈们,身上的统计数据都会更新,用的是下面这两串代码。
1def update(self, v):
2 """ Update the node statistics after a rollout """
3
4 self.w = self.w + v
5 self.q = self.w / self.n if self.n 》 0 else 0
1while current_node.parent:
2 current_node.update(v)
3 current_node = current_node.parent
选择落子点
模拟器搭好了,每个可能的“下一步”,都有了自己的统计数据。
按照这些数据,算法会选择其中一步,真要落子的地方。
选择有两种,一就是选择被模拟的次数最多的点。试用于测试和实战。
另外一种,随机 (Stochastically) 选择,把节点被经过的次数转换成概率分布,用的是以下代码——
1 total = np.sum(action_scores)
2 probas = action_scores / total
3 move = np.random.choice(action_scores.shape, p=probas)
后者适用于训练,让AlphaGo探索更多可能的选择。
三位一体的修炼
狗零的修炼分为三个过程,是异步的。
一是自对弈 (Self-Play) ,用来生成数据。
1def self_play():
2 while True:
3 new_player, checkpoint = load_player()
4 if new_player:
5 player = new_player
6
7 ## Create the self-play match queue of processes
8 results = create_matches(player, cores=PARALLEL_SELF_PLAY,
9 match_number=SELF_PLAY_MATCH)
10 for _ in range(SELF_PLAY_MATCH):
11 result = results.get()
12 db.insert({
13 "game": result,
14 "id": game_id
15 })
16 game_id += 1
二是训练 (Training) ,拿新鲜生成的数据,来改进当前的神经网络。
1def train():
2 criterion = AlphaLoss()
3 dataset = SelfPlayDataset()
4 player, checkpoint = load_player(current_time, loaded_version)
5 optimizer = create_optimizer(player, lr,
6 param=checkpoint)
7 best_player = deepcopy(player)
8 dataloader = DataLoader(dataset, collate_fn=collate_fn, \
9 batch_size=BATCH_SIZE, shuffle=True)
10
11 while True:
12 for batch_idx, (state, move, winner) in enumerate(dataloader):
13
14 ## Evaluate a copy of the current network
15 if total_ite % TRAIN_STEPS == 0:
16 pending_player = deepcopy(player)
17 result = evaluate(pending_player, best_player)
18
19 if result:
20 best_player = pending_player
21
22 example = {
23 ’state’: state,
24 ’winner’: winner,
25 ’move’ : move
26 }
27 optimizer.zero_grad()
28 winner, probas = pending_player.predict(example)
29
30 loss = criterion(winner, example, \
31 probas, example)
32 loss.backward()
33 optimizer.step()
34
35 ## Fetch new games
36 if total_ite % REFRESH_TICK == 0:
37 last_id = fetch_new_games(collection, dataset, last_id)
训练用的损失函数表示如下:
1class AlphaLoss(torch.nn.Module):
2 def __init__(self):
3 super(AlphaLoss, self).__init__()
4
5 def forward(self, pred_winner, winner, pred_probas, probas):
6 value_error = (winner - pred_winner) ** 2
7 policy_error = torch.sum((-probas *
8 (1e-6 + pred_probas).log()), 1)
9 total_error = (value_error.view(-1) + policy_error).mean()
10 return total_error
三是评估 (Evaluation) ,看训练过的智能体,比起正在生成数据的智能体,是不是更优秀了 (最优秀者回到第一步,继续生成数据) 。
1def evaluate(player, new_player):
2 results = play(player, opponent=new_player)
3 black_wins = 0
4 white_wins = 0
5
6 for result in results:
7 if result == 1:
8 white_wins += 1
9 elif result == 0:
10 black_wins += 1
11
12 ## Check if the trained player (black) is better than
13 ## the current best player depending on the threshold
14 if black_wins 》= EVAL_THRESH * len(results):
15 return True
16 return False
第三部分很重要,要不断选出最优的网络,来不断生成高质量的数据,才能提升AI的棋艺。
三个环节周而复始,才能养成强大的棋手。
有志于AI围棋的各位,也可以试一试这个PyTorch实现。
本来摘自量子位,原作 Dylan Djian。
代码实现传送门:
网页链接
教程原文传送门:
网页链接
AlphaGo Zero论文传送门:
网页链接
腾讯围棋怎么和ai下棋
登录后,点击主界面最左下方的“绝艺复盘”按钮,进入该功能。
当然是赶紧点击“确定”。然后你会发现,你当前的积分为5分,而兑换1次绝艺复盘需要10分。
那就赶紧挣分吧。目前APP内一共提供了4种方法兑换积分:
“升降级对局” 用APP找人下1一盘升降级对局可以集1分,不过这个对急于体验“绝艺复盘”功能的轩凡爸来说太慢了点,暂时不考虑。
"支持棋手" 通俗点说,就是到APP的直播对局中压分。 (方法,退到APP主界面,“观战” 下面有几个对局列表,随便选4盘棋,每盘压1000分(最小值)即可。再回到“绝艺复盘”界面,这里“支持棋手”旁边的按钮变成可领积分的状态了,点4次领取,4个积分到手
分享APP 这也是个好办法,点击它旁边的按钮,随便找个朋友分享一下链接即可,比如那个叫“文件传输助手”的朋友 5+4+1,10分了,赶紧去申请绝艺复盘
成为邀请人 这种方法适用于你有不少会围棋但又还没有使用腾讯围棋的朋友,邀请他们来注册,邀请一个朋友注册成功可以挣2分。 注意,邀请来的朋友还需要在“绝艺复盘”界面填写邀请人为你才行,如下:
积分挣够之后,点击“绝艺复盘”界面的兑换按钮兑换复盘机会就可以开始准备复盘了。
元萝卜AI下棋机器人:商汤黑科技 安全伴你玩儿
智能机器人已经越来越走进人们的生活,或用以提升办公效率,或用以提升生活品质,或者为孩子们带来乐趣和陪伴。近日,由商汤科技推出的其首个家庭消费级人工智能产品——“元萝卜SenseRobot” AI下棋机器人,融合了传统象棋文化和人工智能技术,不仅可以陪伴孩子学习、对弈象棋,还能锻炼思维、保护视力,并进行行业象棋技术等级评测,让孩子玩有所得,学有所成。
下棋机器人并不鲜见,但商用居多,且体积巨大。如果想要一台能够摆在家里桌面上,并且能够精准摆棋、下棋,还需要在使用的过程中更加安全友好,同时价格又非常合理的下棋机器人,目前市面上几乎没有这样的产品。而“元萝卜SenseRobot”AI下棋机器人浓缩了商汤在计算机视觉领域多年积淀的产业级AI技术和机械臂技术。那么到底这款萌萌哒的下棋机器人到底有着哪些黑科技,如此小的体积下实际体验表现又如何,不妨我们来跟它实战体验一把。
安装很简单 打开就能用
“元萝卜”AI下棋机器人的外包装箱看上去很大,是因为把机器人完整的放置在里面了,所以开箱后,连接好棋盘和电源,开机就能使用,不管是家里的小孩还是老人,都能轻松组装。机器人的外观看上去像是一个小“航天员”,还有几分呆萌,“脸部”是一块内嵌的显示屏,可以显示当前状态,或进行选项的设置,还会显示一些表情,绝对是孩子们喜欢的玩伴。
头顶上的摄像头用来“纵览全局”,跟它下棋想要“作弊”可是不行的哦。身体的左侧旋钮是音量控制,毕竟它也是一个会“说话”的机器人,下棋的过程中可要听仔细了,它的绝招可真不少,认真学,进步就很快哦。
右侧的机械臂可以用来摆棋、下棋,能够很灵活的在整个棋盘上活动,底部的伸缩头可以通过磁吸的方式,很精准的吸住、放下棋子。这是因为“元萝卜SenseRobot”AI下棋机器人的机械臂实现了只有昂贵工业机器人才具备的毫米级“抓取”精度,配合摄像头的全局AI识别,手眼协同,“动起手来”像人一样,眼快、手准、出招稳,也更安全。
“元萝卜SenseRobot”AI下棋机器人随机搭配了一个棋盘,一盒棋子(红16,蓝16,共32枚),棋盘的一侧带有一根Type-C接口的线,与机器人底部连接,然后再将棋盘与机器人对齐、卡住即可(将有红色标识的地方对齐,卡好棋盘,避免下棋时棋盘移动。)
棋盘的右下角是操作按键区,包括返回键、主页键,中间的圆形按键是左右、上下、确定选择按键,用于菜单的选项选择。下面的走棋确定,是在下棋过程中与机器人交互的确认按键,当我们走棋完成后,按一下走棋确定,然后由机器人走棋。这种设计方式,也能给人带来一种实际比赛时,每走完一步,都要按下计时器的真实感。
“元萝卜SenseRobot”AI下棋机器人的连接与配置也很简单。开启电源后,几秒开机动画过后,机器人屏幕会出现“游客模式”和“联网绑定”选项,点击棋盘右下方键盘区的方向键即可选择。为了享受机器人的所有功能,这里当然要选择“联网绑定”。
然后根据机器人屏幕相关提示,使用微信扫一扫,登录小程序后,点击“机器人配置”,选择Wi-Fi将机器人联网绑定。
当提示出示二维码时,将手机二维码对准机器人屏幕前方20~40厘米。待屏幕出现“联网绑定成功”后,意味着绑定成功,之后就可以操作下棋了。
产业级视觉技术+机械臂,全方位呵护孩子安全
一切就绪,是不是已经迫不及待的想要跟机器人对弈了呢?不会摆棋子怎么办?不知道该怎么走棋怎么办?走错了怎么办?其实都不用担心,这毕竟是一款AI智能机器人,大家还记得阿尔法围棋吧,那可是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能机器人。只不过“元萝卜SenseRobot”AI下棋机器人玩的是中国象棋,而且还能够智能感知棋盘变化,并智能控制完成下棋操作,所以你可不要小瞧了它哦。
由于“元萝卜SenseRobot”AI下棋机器人还采用了机械臂,一些家长可能还会担心在操作的过程中,是否会对孩子的安全带来危险。前面我们也说过,这款机器人采用了AI机械臂搭载触碰感应系统,当机械臂在行进过程中,如果人碰到机械臂发生阻挡时,机械臂会停下来,不会强行与人做对抗。当机械臂在移动的过程中,无论是轻触、还是用力去推拉,机械臂都会即刻停下,没有任何回馈的力度,可以说是相当的“温和”。磁吸的“抓棋”方式,更不会出现误夹手的问题,也就有效保护了孩子或用户的安全。这也是商汤科技在多年技术积累,以及多次实验、改进、优化带来的结果。
除了不会伤害身体,眼睛视力也可以得到有效保护。毕竟,现在说到下象棋,很多人会想到的是电脑或者手机上的APP。虽然方便,但对于象棋这种需要高度集中和深度思考的棋类游戏来说,长时间盯着屏幕上的棋盘,很容易出现眼睛疲劳的问题。而“元萝卜SenseRobot”AI下棋机器人这种机械臂+实体棋盘的设计,能够带来“执子下棋”这种返璞归真般的体验,也因此不存在屏幕刺激给视力造成的伤害。而且手眼并用,对孩子综合的协调能力也是个培养。
AI黑科技加持,毫米级精度大师级棋力
“元萝卜SenseRobot”AI下棋机器人,包含AI学棋、残局挑战、棋力闯关、巅峰对决等多种模式,对于完全没下过棋的孩子或者用户,也可以从基础开始学起。
你以为“元萝卜SenseRobot”AI下棋机器人就这几下子?肯定不能。要知道它可是有“眼(摄像头)”有“手(机械臂)”的,摆棋这么基础的动作是否可以轻松精准完成呢?实际上,只要你把棋子放在棋盘上,也就是它可控的范围内,它就能很精准的识别,并“拿”到准确的位置。
毫米级精度到底是个怎样的概念?据说在研发过程中,商汤的工程师曾经做了一项测试:让机械臂的“手”,将一根1毫米的针头,穿到棋盘面板上1.6毫米的孔洞内。结果每一次都能把针眼精准插到孔洞里,没有一次失误,可以说是真正做到了“穿针引线”级别的操作能力。
摆好了棋子,就可以跟机器人对弈了。由于内置了100+残局闯关和26关棋力对战,从初学者到高手,都能享受对弈乐趣。如果选择“巅峰对决”,还可以与“元萝卜”的最高水平当面PK。它通过强化学习技术自我对弈了超过一亿局,战胜过很多的职业选手甚至象棋冠军,棋力水平可达大师级别。
对于好动的孩子,在下棋时也许会突发奇想,想要捉弄一下机器人,比如违反规则,偷偷拿走了机器人的棋子,错误摆放等,这些可别想瞒天过海骗过机器人,它可是会及时给你语音提示,并认真帮你纠正过来的,所以还是要认认真真下棋,毕竟棋如人生,从小培养好的行为规则哦。
中象协权威认证,寓教于乐,益智培养
在这里还要重点提一下,对于象棋初学者而言,“元萝卜SenseRobot”AI下棋机器人支持的象棋“0基础”教学,产品内置专业课程48节,同时,机器人会语音讲解搭配实战训练,让孩子从0开始逐步提升棋力,开发智力。
点击机器人主页面的AI学棋模式,就可以进入到教学课程之中,在这里,AI机器人能够介绍和讲解象棋的文化、规则及每个棋子的使用技巧。比如该如何摆棋子,马走日,象飞田,车走直路,炮翻山,卒子过河不复还,老将不离后花园。
讲解的同时,机械臂还会配合着语音去磁吸起对应的棋子并放在棋盘相应的位置之上,整个教学过程生动形象,并且轻松易懂,对于孩子来说还是非常容易入手的。
而如果学习象棋已经达到一定水平,那么“元萝卜SenseRobot”AI下棋机器人里面的AI学棋之评测你也一定要看看。据了解,这个象棋评测是拥有国家体育总局中国象棋协会权威认证,支持16-13级象棋等级评测,通过后可以查看中国象棋协会颁发的等级证书,这样就可以足不出户完成官方象棋等级评测。
而更进一步讲,孩子使用“元萝卜SenseRobot”AI下棋机器人下棋,还可以进一步提高自身专注度及深度思考能力,至少可以排除手机、电脑随时弹消息、广告的干扰。在这种纯粹的环境下,当孩子遇到不会走的棋局时,并不会扭头去打游戏,反而会寻求父母或者爷爷奶奶的帮助,一起来挑战,全家人一同参与,一起对战机器人其乐融融。而且孩子在看棋、摸棋、走棋的过程中,本身也是一个边动脑边动手的过程,锻炼了孩子的手眼协调能力。
体验总结:小小“宇航员”,满满黑科技;全家一起玩,益智又安全。
通过一段时间的体验,“元萝卜SenseRobot”AI下棋机器人时尚、更具科技感的外观,能够很好很快的融合到家庭中,并能成为孩子们最好的玩伴。摆棋、教棋、下棋,有模有样,不仅更加专业,也更有趣儿,儿童可以学习、培养兴趣,大人也能对弈几局练练手,可以说它不仅是孩子的绝佳伴侣,更是家庭成员的情感纽带,相当于用科技搭建了情感的桥梁。
重要的是,由商汤黑科技加持的“元萝卜SenseRobot”AI下棋机器人,正是在AI领域走进家庭场景的探索,让产业级AI技术走进千家万户。正是凭借着商汤在视觉技术领域的创新,最终才将既能感知、又能决策,还能产生实际动作的“手眼协同”的互动式能力,浓缩成体积如此轻巧、体验又如此温和的机器人。而这种全新的交互方式,也能激发孩子对前沿科技的兴趣,从而潜移默化的培养科技素养,学习到更专业的技能。这样的产品,我希望可以有更多。
目前,“元萝卜SenseRobot” AI下棋机器人已在天猫、京东开启预售,PRO版售价2,499元,附赠中国象棋协会16-13级专业课程和等级测评;标准版售价1,999元,附赠16-15级专业课程和等级测评,敬请关注。
戳这里》》》电商直达
本文相关文章:
![有位家长问象棋、围棋、国际象棋、国际跳棋哪个易让孩子入门?我想问一下简易跳棋的规则是什么](/static/images/nopic/8.jpg)
有位家长问象棋、围棋、国际象棋、国际跳棋哪个易让孩子入门?我想问一下简易跳棋的规则是什么
2024年6月28日 07:24
![求问:现在有没有什么好的在线学围棋的课程可以推荐的呀?有道纵横棋院怎么样](/static/images/nopic/12.jpg)
求问:现在有没有什么好的在线学围棋的课程可以推荐的呀?有道纵横棋院怎么样
2024年5月19日 05:04
更多文章:
![匣里龙吟什么意思 词语匣里龙吟什么意思?匣里龙吟怎么精炼匣里龙吟如何精炼](/static/images/nopic/13.jpg)
匣里龙吟什么意思 词语匣里龙吟什么意思?匣里龙吟怎么精炼匣里龙吟如何精炼
2024年7月5日 17:57
![诛仙游戏视频(请问朋友们怎样看待三十几岁的人了还在玩网络游戏比如《诛仙》之类的)](/static/images/nopic/11.jpg)
诛仙游戏视频(请问朋友们怎样看待三十几岁的人了还在玩网络游戏比如《诛仙》之类的)
2024年1月21日 08:50
![黑名单的作用(如何能在不打电话的情况下知道对方是否把我拉黑名单了是手机号码)](/static/images/nopic/9.jpg)
黑名单的作用(如何能在不打电话的情况下知道对方是否把我拉黑名单了是手机号码)
2023年12月24日 11:15
![qq音速死亡旋律是什么音乐?QQ音速死亡旋律这歌叫什么名字啊](/static/images/nopic/7.jpg)
qq音速死亡旋律是什么音乐?QQ音速死亡旋律这歌叫什么名字啊
2023年12月16日 21:00
![自来也说的预言之子是什么意思?火影忍者中的预言之子是什么概念(我知道是鸣人)](/static/images/nopic/24.jpg)
自来也说的预言之子是什么意思?火影忍者中的预言之子是什么概念(我知道是鸣人)
2024年4月4日 04:27
![dotaimba三选一(DOTAimba三选一模式是什么指令)](/static/images/nopic/20.jpg)
dotaimba三选一(DOTAimba三选一模式是什么指令)
2024年1月17日 21:50
![activesync 下载(HTC天玺T9188的机子,谁知道怎么刷安卓系统,QQ都只能用2008的,极度郁闷 求大神救救!谢谢)](/static/images/nopic/25.jpg)
activesync 下载(HTC天玺T9188的机子,谁知道怎么刷安卓系统,QQ都只能用2008的,极度郁闷 求大神救救!谢谢)
2024年5月24日 17:11
![为什么我被僵尸咬了,变成僵尸还是像人一样的生活呢,僵尸兄弟看到我的提问请回答?龙与地下城毁灭之塔的道具魔法](/static/images/nopic/16.jpg)
为什么我被僵尸咬了,变成僵尸还是像人一样的生活呢,僵尸兄弟看到我的提问请回答?龙与地下城毁灭之塔的道具魔法
2024年6月16日 12:36