新浪体育-首页 10年专注环保设备研发制造 环保设备【http://chevytothelevy.com】系统设计\制作\安装一条龙服务
新浪体育 中文网址:【麻豆视频.COM】
当前位置:新浪体育 > 新浪体育 > 案例分类3 >
16

人人都能看懂的机器学习!3个案例详解聚类、回归、分类算法

作者:admin 来源:未知 时间:1626777987 点击:

[文章前言]:机器是怎样学习的都学到了什么人类又是怎样教会机器学习的本文通过案例给你讲清楚各类算法的原理和应用。 机器学习一言以蔽之就是人类定义一定的计算机算法让计算机根据输入的

  机器是怎样学习的都学到了什么人类又是怎样教会机器学习的本文通过案例给你讲清楚各类算法的原理和应用。

  机器学习一言以蔽之就是人类定义一定的计算机算法让计算机根据输入的样本和一些人类的干预来总结和归纳其特征和特点并用这些特征和特点和一定的学习目标形成映射关系进而自动化地做出相应反应的过程。这个反应可能是做出相应的标记或判断也可能是输出一段内容——图片、程序代码、文本、声音而机器自己学到的内容我们可以描述为一个函数、一段程序、一组策略等相对复杂的关系描述。

  算法这种东西在最初出现的时候是一种确定性的机器指令执行序列也就是说机器需要怎么做早就在程序一开始就设定好。虽然说在程序执行的过程中可以依靠有限的参数对程序执行过程所涉及的对象执行次数执行分支条件等进行设定但是基本行为逻辑已经大抵确定。

  在这个过程中机器——计算机是非常被动的它老老实实地严格执行程序员赋予它们的指令执行序列没有任何“学习”的行为。这也没办法因为最开始的图灵机模型在设计的时候就是期望计算机以这种方式。

  所谓“无监督学习”是指人们在获得训练的向量数据后在没有标签的情况下尝试找出其内部蕴含关系的一种挖掘工作这个过程中使用者除了可能要设置一些必要的“超参数”Hyper-parameter以外不用对这些样本做任何的标记甚至是过程干预“有监督学习”与此不同每一个样本都有着明确的标签最后我们只是要总结出这些训练样本向量与标签的映射关系。

  所以这在这两种方式下处理的逻辑有很大的区别对于初学的朋友需要格外注意。

  聚类——英文为Clustering它就是我们说的典型的“无监督学习”的一种就是把物理对象或抽象对象的集合分组为由彼此类似的对象组成的多个类的分析过程。

  聚类这种行为我们不要觉得很神秘也不要觉得这个东西是机器学习所独有的恰恰相反聚类的行为本源还是人自身。我们学习的所有的数据挖掘或者机器学习的算法或者思想的来源都是人类自己的思考方式只不过我们把它教给机器让它们代劳让他们成为我们肢体和能力的延伸而不是让他们替我们做创造和思考。

  聚类是一种什么现象呢我们人类在认识客观世界的过程中其实一直遇到容量性的问题我们遇到的每一棵树、每一朵花、每一只昆虫、每一头动物、每一个人、每一栋建筑……每个个体之间其实都不同有的差距还相当大。那么我们人在认知和记忆这些客观事物的过程中就会异常痛苦因为量实在是大到无法承受的地步。

  因此人类才会在“自底向上”的认识世界的过程中“偷懒”性地选择了归纳归类的方式注意“偷懒”的这种方式是人类与生俱来的方法。

  我们在小时候被父母用看图说话的方式来教咿呀学语的时候就有过类似的体会了图片上画了一只猴子于是我们就认识了这是一只猴子图片上画了一辆汽车于是我们就了解了这是一辆汽车……

  等我们上街或者去动物园的时候再看猴子也不是画上的猴子而且众多猴子之间也长得各式各样每个都不同我们会把它们当成一个一个的新事物去认识吗我们看汽车也同样大小颜色样式甚至是喇叭的声音也是形形色色五花八门它们在我们眼里是一个个新的事物吗不它们都还是汽车。

  这些事物之间确实有所不同但是它们对我们的认知带来了很大的困扰吗并没有。我们无论如何是不会把猴子和汽车当成一类事物去认知的猴子彼此之间是不同但是体格、毛发、行为举止种种形态让我们认为这些不同种类的猴子都还是猴子一个大类的动物别说是和汽车混为一谈就是跟狗、马匹、熊这些脊椎动物我们也能轻易地分开。

  人类天生具备这种归纳和总结的能力能够把认知的事物相似地放到一起来作为一类事物做认识它们之间可以有彼此的不同但是有一个我们心里的“限度”只要在这个限度内特征稍有区别无关大碍它们仍然还是这一类事物。

  在这一类事物的内部同样有这种现象一部分个体之间比较相近而另一部分个体之间比较相近这两部分个体彼此之间我们人还是能够明显认知到差别那么这个部分的事物又会在大类别的内部重新划分成两个不同的部分进行认知。比如汽车直观从样子上可以分成小轿车、卡车、面包车等种类虫子们也被人轻易地从外型上区别为飞虫、爬虫、毛毛虫……

  在没有人特意教给我们不同小种群的称谓与特性之前我们自然具备的这种由我们主观的认知能力以特征形态的相同或近似将它们划在一个概念下特征形态的不同划在不同的概念下这本身就是聚类的思维方式。

  比较常用的聚类算法有K-Means、DBSCAN等几种基本思路都是利用每个向量之间的“距离”——这里指的是空间中的欧氏距离或者曼哈顿距离。从远近来进行彼此是否更适于从属与同一类别来做的分类判断。

  假如有三个1维样本一个180一个179一个150这三个向量如果要分成两类的线这两个分在一个类别150单一个类别。原因就是180和179两个的距离为1而180和179距离150分别为30和29个单位——非常远就是从肉眼感官上来看也是这样。用机器来做学习的线c;它也能够通过算法自动去感知到这些向量之间的距离然后将它们彼此之间那些靠得近的分在一起以区别于其他类簇。

  在用机器做聚类学习的时候我们每种算法都对应有相应的计算原则可以把输入的各种看上去彼此“相近”的向量分在一个群组中。然后下一步人们通常更有针对性地去研究每一组聚在一起的对象所拥有的共性以及那些远离各个群组的孤立点——这种孤立点研究在刑侦、特殊疾病排查等方面都有应用。

  在这个过程中从获得到具体的样本向量到得出聚类结果人们是不用进行干预的这就是“非监督”一词的由来。

  回归是一种解题方法或者说“学习”方法也是机器学习中一块比较重要的概念。

  回归的英文是Regression单词原型的regress大概的意思是“回退退化倒退。”其实Regression——回归分析的意思是借用里面“倒退倒推”的含义。简单说就是“由果索因”的过程是一种归纳的思想——当我看到大量的事实所呈现的样态我推断出原因或客观蕴含的关系是如何的当我看到大量的观测而来的向量数字是某种样态我设计一种假说来描述出它们之间蕴含的关系是如何的。

  在机器学习领域最常用的回归是两大类——一类是线c;一类是非线性回归。

  所谓线c;就是在观察和归纳样本的过程中认为向量和最终的函数值呈现线性的关系。而后设计这种关系为

  这里的w和x分别是1×n和n×1的矩阵wb则指的是这两个矩阵的内积。具象一点说例如如果你在一个实验中观察到一名病患的几个指标呈现线;注意这个是大前提如果你观察到的不是线性关系而用线性模型来建模的线c;是会得到欠拟合的结果的。

  拿到的x是一个5维的向量分别代表一名患者的年龄、身高、体重、血压、血脂这几个指标值y标签是描述他们血糖程度的指标值x和y都是观测到的值。在拿到大量样本就是大量的x和y后我猜测向量 (年龄,身高,体重,血压,血脂) 和与其有关联关系的血糖程度y值有这样的关系

  那么就把每一名患者的 (年龄,身高,体重,血压,血脂) 具体向量值带入并把其血糖程度y值也带入。这样一来在所有的患者数据输入后会出现一系列的六元一次方程未知数是w1~w5和b——也就是w矩阵的内容和偏置b的内容。而下面要做的事情就是要把w矩阵的内容和偏置b的内容求出一个最“合适”的解来。这个“合适”的概念就是要得到一个全局范围内由f(x)映射得到的y和我真实观测到的那个y的差距的加和写出来是这种方式

  怎么理解这个Loss的含义呢右面的表示加和相当于做一个一个循环i是循环变量从1做到n覆盖训练集当中的每一个样本向量。加和的内容是wxib和yi的差值每一个训练向量xi在通过我们刚刚假设的关系f(x)wxb映射后与实际观测值yi的差距值。取绝对值的含义就是指这个差距不论是比观测值大或者观测值小都是一样的差距。将全局范围内这n个差距值都加起来我们管他叫总差距值好了就是这个 的含义。

  那么显而易见这个映射关系中如果w和b给的理想的线c;因为每个x经过映射都“严丝合缝”地和观测值一致了——这种状况太理想了在实际应用中是见不到的。不过Loss越小就说明这个映射关系描述越精确这个还是很直观的。那么想办法把Loss描述成

  再使用相应的方法找出保证Loss尽可能小的w和b的取值就算是大功告成了。我们后面会讲计算机怎么来求这一类的解——放心有办法的即便不用联立解方程。一旦得到一个误差足够小的w和b并能够在验证用的数据集上有满足当前需求的精度表现后就可以了。例如预测病患的血糖误差为误差平均小于等于0.3为容忍上线c;训练后在验证集上的表现为误差平均为0.2那就算是合格了。

  请注意在传统的机器学习中回归、分类这些算法里都有一个要把获取到的数据集分成训练集合验证集的过程。用训练集数据来做训练归纳关系用用验证集数据来做验证避免过拟合现象如果你不太明白过拟合是什么意思也没关系后面我们会讲的不必着急。数据集的划分三七开也可以二八开也没什么不行现在生产环境中大致用的都是这样一种比例反正训练集一侧用数据多的那部分。

  由于这种假设中输入的x向量与标签值y是一种线c;所以才叫做线性回归。最常见的形式是yf(x)axb这种形式也就是x是一个一维向量w也是一个一维向量的情况。如果是呈现其他关系比如指数关系对数关系那么这种时候你用线性回归去做拟合会发现它的损失函数非常大在验证集上表现出来的误差也非常大这是一种欠拟合现象我们后面同样会讲大家先技术这样一个名词。

  非线性回归之中在机器学习领域应用最多的当属逻辑回归。它和线性回归都叫回归但是逻辑回归看上去更像分类。我们先在回归这一节提一下这种回归的工作方式。与前面我们说的线c;在这种模型中观察者假设的前提是y只有两种值一种是1一种是0或者说“是”或“否”的这种判断。

  这里面的wxb和前面线性回归中所说的wxb是一个概念都是指一个w矩阵和x做了内积再和偏置b做了一个加和。如果设zwxb那么这个回归的分类模型表达式就可以改写为

  横轴是z纵轴是y一个多维的x经过这样两次映射后最后投射在y上是一个取值只有1和0二项分布。也就是我们前面说的产生了一个“是”或“否”的分类。

  训练的过程跟普通线性回归也是一样的只不过损失函数的形式不同。但是它的损失函数的含义仍旧是表示这种拟合残差与待定系数的关系并通过相应的手段进行迭代式的优化最后通过逐步调整待定系数减小残差。逻辑回归的表达式的定义本源是来自于伯努利分布的后面我们也会有相对详细的说明这里先做一个感性认识。

  分类是我们在利用机器学习中使用的最多的一大类算法我们通常也喜欢把分类算法叫“分类器”。

  这个说法其实也非常形象在我们看来这就是一个黑盒子有个入口有个出口。我们在入口丢进去一个“样本”在出口期望得到一个分类的“标签”。

  比如一个分类器可以进行图片内容的分类标签我们在“入口”丢进去一张老虎的照片在“出口”得到“老虎”这样一个描述标签而当我们在“入口”丢进去一张飞机的照片在“出口”得到“飞机”这样一个描述标签这就是一个分类器最为基本的分类工作过程。

  一个分类器模型在它诞生初始化的时候其实是不具备这种功能的而要让它具备这种功能只有通过给予它大量的图片以及图片所对应的标签分类让它自己进行充分地总结和归纳才能具备这样一种能力。

  在刚刚看到的逻辑回归这种方式中我们已然看到了一些端倪。逻辑回归和普通的线c;它的拟合是一种非线性的方式。而最终输出“标签值”虽然是一种实数变量而最终分类的结果却期望是一种确定的值“是”1或“不是”0。其他各种分类器的输出通常也是离散的变量体现出来也多是非线性的分类特点。

  我们在编写代码教会分类器怎么做学习的时候其实是在教它如何建立一种输入到输出的映射逻辑以及让它自己调整这种逻辑关系使得逻辑更为合理。

  而合理与否的判断也非常明确那就是召回率和精确率两个指标——召回率指的是检索出的相关样本和样本库待测对象库中所有的相关样本的比率衡量的是分类器的查全率。精确率是检索出的相关样本数与检索出的样本总数的比率衡量的是分类器的查准率。

  这相当于一个x和y的对应关系把它们输入到训练集去训练但是这个地方的标签0、1、2并不是实数定义而是离散化的标签定义通常习惯用one-hot独热编码的方式来表示。经过多轮训练之后分类器将逻辑关系调整到了一个相对稳定的程度然后用这个分类器再对这200张猫200张狗600张兔子进行分类的时候。发现

  你可不要觉得奇怪在所有的机器学习或者深度学习训练的工程中误判率几乎是没有办法消灭的只能用尽可能科学的手段将误判率降低。不要太难为机器其实人都没办法保证所有的信息100%正确判断尤其是在图片大小、图片清晰程度、光线明暗悬殊的情况下不是吗那就更别说机器了它更做不到。

  而在1000中图片中当我检索狗的时候会检索出240张狗的图片其中有200张确实是狗有20张是被误判的猫还有20张是被误判的兔子所以240张狗的图片中正确的仅有200张而已那么狗的精确率为200÷240≈83.3%。怎么样这两个概念不难理解吧。

  分类的训练过程和回归的训练过程一样都是极为套路化的程序。

  第四通过迭代优化逐步降低Loss最终找到一个w能满足召回率和精确率满足当前场景需要。注意这说的尤其指的是在验证数据集上的表现。

  大家请注意这4个步骤我们从前面最简单的机器学习的例子中已经总结出来一个最为有概括性的科学性流程。这种流程广泛使用并且在其它机器学习的场景中也是可以顺利落地的。

  分类器的训练和工作过程就是这个样子了听起来分类器的工作过程非常简单但是要知道人的智能行为其实就是一种非常精妙或者称为完美的分类器。他能够处理极为复杂极为抽象的输入内容——不管是文字、声音、图像甚至是冷、热、刺痛感、瘙痒感这种难以名状的刺激并且能够在相当短的时间内进行合理的输出——例如对答、附和、评论亦或是尖叫、大笑等各种喜怒哀乐的反应与表现。从定义的角度上来说人其实就是一种极为复杂的且极为智能的分类器。而我们在工业上使用的分类器则通常是非常片面的偏门的只研究一种或几个事物的“专业性”的分类器这和我们人类的分类能力区别就太大了。

  到现在为止我们看到的绝大多数的机器学习的应用环境都非常单纯——向量清洗到位边界划定清晰。

  例如垃圾邮件的分拣能够通过邮件内容的输入来判断邮件是否为垃圾邮件新闻的自动分类能够通过欣慰内容的分类来判断新闻的类别或描述内容的属性摄像头对车牌号的OCR电子识别手写识别这些应用可以通过输入一个图像来得到其中蕴含的文字信息向量诸如此类等等这些都是早些年应用比较成熟的领域在这种应用场景中机器通过学习能够取代一些纯粹的体力劳动。

  在近几年随着计算机能力的提升尤其是GPU并行计算的普及化使得很多原来高密度计算的场景变得门槛越来越低人们在商用领域已经开始寻找用深度学习的网络来做一些原来不可想象的事情。

  例如这种使用卷积神经网络对照片进行风格处理拿一张输入的普通照片再拿一张有着较强艺术风格的绘画作品然后通过卷积网络进行处理最后由计算机“创作”出一幅内容基于照片但是风格基于绘画作品的新作出来。而这种事情在几年前是难以想象的因为这看上去太“智能”了太有“创造力”了。

  还有类似这种我们输入一张照片然后让计算机根据这张照片的风格和内容凭空创造一张很像但不一样的照片出来。注意哦这个跟Photoshop的功能可是完全不同的它是全自动。在这些图中右侧的图都是源图左侧的图都是计算机生成的图有水波纹、云朵、花丛、还有随意的艺术涂鸦。怎么样有不少真的是可以以假乱真了吧。这都是使用深度神经网络处理的结果。

  那么除此之外像语音识别以及视频中存在物体的检出这些内容也是属于近几年研究比较热门并逐渐趋于成熟的应用领域。实际上在实现层面有很多种实现方式可以完成像这样的应用。

  而在学术领域也有一类新兴的基于深度学习神经网络的研究领域叫做“对抗学习”可以实现类似的方式。在深度学习领域我们会使用“生成对抗网络”Generative Adversial Network这种网络的特点就是可以进行复杂内容的生成而非生成一个标签这么简单。

  关于作者高扬欢聚时代资深大数据专家曾任金山软件西山居大数据架构师。有多年服务器端开发经验多年日本和澳洲工作经验多年大数据架构设计与数据分析、处理经验目前负责欢聚时代直播部深度学习落地相关的研究。擅长传统机器学习、深度学习、数据建模、关系型数据库应用以及大数据框架等的应用。

  卫峥欢聚时代YY娱乐事业部软件架构师曾任西山居软件架构师。多年的软件开发和架构经验精通C/C、Python、Golang、JavaScript等多门编程语言近几年专注于数据处理、机器学和深度学习算法的研究、音视频图形图像处理应用与服务研发。

  万娟深圳华为UI设计师曾任星盘科技有限公司UI设计师平面对VI设计、包装、海报设计等、商业插画、App交互、网页设计等有独到认识。多次参与智能家居和智能音箱等项目的UI设计。多次参加国际和国内艺术和工业设计比赛并获奖。

  本文摘编自《白话深度学习与TensorFlow》经出版方授权发布。

  推荐语技术畅销书《白话大数据与机器学习》姊妹篇YY大数据专家撰写李学凌、朱频频、王庆法、王海龙联袂推荐。

  「 身处于大数据时代,我们的日常生活离不开大数据。大数据即大量的数据,在一定时间内,没有办法用普通常规的工具或是软件对它所捕获、存储、管理和处理的数据集合。」Hadoop是一种分析和处理大数据的软件平台,是Appach的一个用Java语言所实现的开源软件的加框,在大量计算机组成的集群当中实现了对于海量的数据进行的分布式计算。今天给大家分享90篇超干货的【Hadoop大数据分析】精选学习资料。详细讲解了HDFS、NameNode、Secondary 、NameNode、DataNode...

  大量数据中具有相似特征的数据点或样本划分为一个类别。

  的基本思想是物以类聚、人以群分,将大量数据集中相似的数据样本区分出来,并发现不同类的特征。

  。尽管全球每日新增数据量以PB或EB级别增长,但是大部分数据属于无标注甚至非结构化。所以相对于监督学习,不需要标注的无监督学习蕴含了巨大的潜力...

  -10/690272.html 在大数据时代,数据挖掘是最关键的工作。大数据的挖掘是从海量、不完全的、有噪声的、模糊的、随机的大型数据库中发现隐含在其中有价值的、潜在有用的信息和知识的过程,也是一种决策支持过程。其主要基于人工智能,

  ,模式学习,统计学等。通过对大数据高度自动化地分析,做出归纳性的推理,从中挖掘

  全文共1448字,45幅图,预计阅读时间8分钟。本文是「小孩都看得懂」系列的第四篇,本系列的特点是没有公式,没有代码,只有图画,只有故事。内容不长,碎片时间完全...

  的,特别是当训练数据比较多的时候效果就更加明显。下面让我们看看如何使用

  2.主要思想是找到预测样本中最近的K个邻居(一般通过欧式距离或者曼哈顿距离公式计算),用K个邻居的目标值中占多数的目标代表预测样本的目标

  最关键的点就是K值的选取决定了模型的效果,一般可通过K-折交叉验证或者网格搜索法选择一个模型评分最优的K值 二、线性

  导入库并载入数据: import numpy as np import matplotlib.pyplot as plt # 载入数据 data = np.genfromtxt(kmeans.txt, delimiter= ) 定义函数:计算距离、初始化

  中心函数: # 计算距离 def euclDistance(vector1, vector2): return np.sqrt(su..

  原创文章,如需转载请保留出处 本博客为唐宇迪老师python数据分析与

  实战 2.1 获取数据 #beer dataset import pandas as pd #sep= : 表示当输入多个打印的值时,各个值之间分割方式, 默认空格,可以自定义 beer = pd.read_csv(&#

  应用:葡萄酒质量和时间的关系/p p逻辑

  :糖尿病预测项目/p pKNN:鸢尾花

  /p p神经网络:手写数字识别/p p神经网络:葡萄酒

  /p p集成学习:泰坦尼克号船员获救预测/p p集成学习:乳腺癌预测/p p贝叶斯:新闻

  /p p贝叶斯:拼写检查器/p pKMEANS:NBA球队

  /p pKMEANS:广告效果分析/p pPCA:手写数字降维可视化/p pPCA:手写数字降维预测/p pSVM:非线性

  /p pSVM:人脸识别/p

  『编者按』近年来,人工智能(AI)正在不断释放科技革命和产业变革积蓄的巨大能量,深刻改变着人类生产生活方式和思维方式,推动社会生产力整体跃升。什么是AI?它将为我们带来哪些价值?我们陆续为大家分享AI科普系列文章。后续更新敬请关注!作者:高扬 卫峥 万娟来源:大数据(ID:hzdashuju)内容摘编自《白话深度学习与TensorFlow》本文导读:机器是怎样学习的?都学到了什么?人类又...

  1. 字典特征抽取 代码 from sklearn.feature_extraction import DictVectorizer def dictvec(): #字典数据抽取 #实例化 dict=DictVectorizer(sparse=False) #调用fit_transform,字典储存在列表中 data=dict.fit_transform([{&#

  :监督学习、无监督学习、强化学习、深度学习 监督学习:有指导的学习,数据有结果标记,例如:

  :类别的个数要先知道,也就是要先知道有几类。不用提前知道是什么类,不用分训练集和测试集) # ...

  背景 数据集 sh50components 中给出了上证 50 指数成分股从 2011 年 1 月4 日至 2019 年 5 月 10 日,共 2029 个交易日的涨跌幅数据。由于部分股票上市时间较晚,实际共有 42 只股票。 数据预处理 导...

  引言: 数据挖掘的本质是“计算机根据已有的数据做出决策”,其对社会的价值不必多言,相关的应用已经有很多,包括垃圾邮件拦截、客户价值分析等。 尽管数据挖掘实现过程的细节千差万别,但是从思路来说,主要包括两个方面:1、创建数据集;2、建模调整

  是数据挖掘最核心的部分,作为一名学习新人,在参考《数据挖掘导论》、《Python数据分析与挖掘实战》、《Python数据挖掘入门与实战

  .结果4.绘图查看 生成一些数据 1.导入sklearn的包和画图的包 from sklearn.datasets.samples_generator impor...

  ,自己敲了敲,写写 先上训练数据 0.0 0.0 0.0 0.1 0.1 0.1 0.2 0.2 0.2 5.0 5.0 5.0 5.1 5.1 5.1 5.2 5.2 5.2 9.0 9.0

  。 na_values[?]空 数据特别大,不适合放在内存里面处理,不适合用pandas处理 pandas中的describe()可以将数据所有特征显示出来,describe()显示的是数字特征,非数字特征加上include=[0] 默认前5行。head(5) 子图作用:将每一个特征尽可能的表现出来 对所有特征有一个大的认知 missingno查看确实值,中间画白色横线的都有缺失 目标:了解有哪些特征;了解这些特征与目标之间的关系 缺失值:要么去除;要么填补。填

  栈区:主要用来存放局部变量, 传递参数, 存放函数的返回地址。.esp 始终指向栈顶, 栈中的数据越多, esp的值越小。 堆区:用于存放动态分配的对象, 当你使用 malloc和new 等进行分配时,所得到的空间就在堆中。动态分配得到的内存区域附带有分配信息, 所以你 能够 free和delete它们。 数据区:全局,静态和常量是分配在数据区中的,数据区包括bss(未初始化数据区)和初始化数据区。 ...

  以上就是小编为大家介绍的人人都能看懂的机器学习!3个案例详解聚类、回归、分类算法的全部内容,如果大家还对相关的内容感兴趣,请持续关注江苏某某环保设备有限公司

  本文标题:人人都能看懂的机器学习!3个案例详解聚类、回归、分类算法  地址:/case/alfl3/2179.html



欢迎来到:❥❥新浪体育❤chevytothelevy.com❤新浪体育,,胜利的阵营方更是可以接受敌对阵营的顶礼膜拜,获取无上荣耀。

XML地图 新浪体育

环保设备公司,10年品牌打造行业正规!

【Copyright ©2017-2021 新浪体育-首页 】  版权所有

网站地图 新浪体育