YucongDuan的个人博客分享 http://blog.sciencenet.cn/u/YucongDuan

博文

超越算法偏见实现DIKWP全方位偏见管理

已有 583 次阅读 2024-4-5 16:11 |系统分类:论文交流

超越算法偏见实现DIKWP全方位偏见管理

段玉聪(Yucong Duan

DIKWP-AC人工意识实验室

AGI-AIGC-GPT评测DIKWP(全球)实验室

世界人工意识大会(World Conference of Artificial Consciousness)共同发起人

DIKWP research group

摘要

在当今信息安全的追求中,越来越明显的是,仅关注传统的安全措施已不足以应对现代数据处理的复杂性。随着数据量的激增和人工智能技术的快速发展,数据处理过程中的公平性和无偏见性成为了紧迫的挑战。这一挑战不仅仅局限于算法本身,更广泛地存在于数据的整个生命周期中——从原始数据的收集、信息的提炼、知识的构建,到智慧的形成和意图的实现。段玉聪教授提出的DIKWP模型提供了一个全面框架,通过将数据处理过程分解为数据(Data)、信息(Information)、知识(Knowledge)、智慧(Wisdom)和意图(Purpose)五个层面,帮助我们识别和理解在这些层面上可能出现的偏见。例如,数据层面的偏见可能源自于不平衡的数据收集或选择性标注,而知识层面的偏见则可能由于过时或文化偏向的知识库导致。识别这些层面上的偏见是构建无偏见信息安全框架的第一步。接下来,必须制定和实施具体的策略来处理这些偏见。这包括但不限于:利用技术和方法学上的进步来增强数据收集和处理的多样性和代表性;开发和采用先进的自然语言处理和机器学习技术,以更准确地理解和利用数据的深层语义信息;以及创建跨学科的伦理审核机制,确保数据的使用目的和处理方式符合伦理和法律要求。本报告将深入探讨DIKWP模型各层面的偏见定义和存在的形式,并提出创新的策略和解决方案,以实现全过程的公平性和无偏见性,构建一个更加全面和可靠的信息安全框架。这不仅是技术上的挑战,更是伦理和社会责任的体现,关系到数据处理的公正性和透明度,最终促进了技术的健康发展和社会的公平正义。我们还展示了基于段玉聪教授提出的借助DIKWP模型的DIKWP概念之间形式化语义的转化,可以不仅突破主客观鸿沟限制,而且实现对DIKWP各个类型偏见的语义空间的一致协同处理。

DIKWP各层面偏见定义与处理数据偏见(Data Bias)

数据偏见是数据科学和人工智能领域中一个极为关键的问题,它能够在不经意间影响分析结果的准确性和决策过程的公正性。在处理数据偏见的策略中,"多源数据整合"和"公平采样"是两个基本但强大的方法。以下是对这些处理策略的技术性扩展和深入解析:

多源数据整合

技术实施:多源数据整合要求收集来自不同背景、地理位置、社会经济状态的数据源。这一过程中,数据融合技术发挥着至关重要的作用,包括但不限于数据清洗、实体识别、数据对齐和融合。利用高级的机器学习技术,如集成学习和迁移学习,可以有效整合来自多源的数据,同时减少每个数据源内在的偏见。

应用场景:在医疗健康研究中,通过整合不同地区和人群的医疗记录,可以获得更全面的疾病发生和治疗效果的视角,避免某一地区或人群特性导致的偏见。

公平采样

技术实施:公平采样需要在数据收集阶段就确立代表性和多样性的采样策略,防止某些群体的过度表示或忽视。这包括使用分层抽样方法,确保不同人口子集按照其在总体中的比例被抽样。在设计采样策略时,采用算法和数学模型预测并调整采样过程,可以进一步增强数据集的代表性和平衡性。

应用场景:在社交媒体情感分析中,通过平衡不同年龄、性别、地域的用户数据,可以避免由于某一群体的过度代表导致的情感倾向性偏见。

技术和伦理挑战

在实施多源数据整合和公平采样的过程中,技术和伦理挑战并存。一方面,数据隐私和安全是整合多源数据时的主要考虑因素,需要采用先进的数据匿名化和加密技术来保护个人信息。另一方面,确保采样过程的公平性和无偏见性,需要深入理解和反思采样设计背后的假设和潜在影响。

数据偏见处理策略的成功实施,不仅依赖于技术的进步,更需要对数据的深入理解和伦理责任感。通过多源数据整合和公平采样,我们可以显著减少数据偏见,提高数据处理和分析的准确性和公正性。然而,持续监控和评估数据处理过程中的偏见,并采取动态调整措施,是确保长期数据公平性的关键。

信息偏见(Information Bias)

信息偏见在数据处理的链条中占据了一个关键的转换节点,即从原始数据到有用信息的转化过程。这一阶段的偏见不仅会直接影响数据的解释质量,还可能对后续的知识构建和决策产生连锁反应。因此,采取有效的处理策略至关重要。

上下文感知分析

技术实施:上下文感知分析的目标是确保信息提取和解释过程能够充分考虑到数据的背景、场景和条件等上下文信息。这要求使用先进的自然语言处理(NLP)技术,如情感分析、实体识别、语义关系挖掘等,以及机器学习模型,如深度学习网络,来理解和解释数据的深层次语义。

应用场景:在舆情分析中,上下文感知分析能够帮助系统区分同一词汇在不同情境中的不同含义,如“苹果”在科技新闻中与在农业新闻中的不同引用。

透明的信息处理

技术实施:实现透明的信息处理要求在数据到信息的转化过程中,所有的步骤、使用的模型和逻辑都能够被追踪和审查。这不仅包括对使用的算法和模型的透明度,还要求提供足够的文档和解释,以便用户和专家能够理解信息是如何被提取和生成的。

应用场景:在医疗诊断系统中,透明的信息处理可以帮助医生理解AI系统如何从病历数据中提取和分析信息,从而做出诊断建议,这对于提高医生的信任和接受度至关重要。

技术与伦理挑战

处理信息偏见的过程中既面临技术挑战也面临伦理挑战。技术上,需要持续发展和完善能够处理复杂、模糊和多义性数据的算法。伦理上,确保信息处理的透明度和可解释性是一个持续的任务,这涉及到算法设计者、用户和监管机构之间的沟通和合作。

通过上下文感知分析和透明的信息处理,可以有效地减少信息偏见,提高数据到信息转换的准确性和可靠性。这不仅要求技术的进步,更需要在整个信息处理过程中贯彻公平、透明和可解释的原则。这种全面和深入的偏见管理策略对于建立公正、可信的数据处理系统至关重要。

知识偏见(Knowledge Bias)

知识偏见在数据的处理和理解过程中占据着核心地位,因为它直接关系到信息如何被理解、分类和最终转化为知识。以下是对知识偏见处理策略的技术性扩展:

多视角知识构建

技术实施

  • 交叉学科团队:构建知识库时,应聚集不同学科背景的专家和研究人员,以确保知识的构建不受单一学科视角的限制。

  • 文化多样性考量:在构建知识时,明确考虑不同文化和地理背景下的知识表达和解释方式,采用多语言和跨文化的数据集,以反映全球多元视角。

应用场景

  • 在全球性的健康数据库建设中,考虑到不同地区对某些疾病的诊断标准和治疗方法可能存在差异,多视角知识构建可以帮助形成更全面、更普遍适用的医疗知识库。

知识验证机制

技术实施

  • 持续的知识审核:建立一个持续的知识审核过程,邀请来自不同领域的专家定期审查知识库的内容,识别过时的知识或偏见性的解释,并进行更新。

  • 用户反馈循环:开放用户反馈渠道,允许用户报告他们认为可能存在偏见或错误的知识条目。这些反馈将作为知识更新和修正的依据。

  • 知识追踪系统:开发知识追踪系统,记录每一条知识条目的来源、修改历史和使用情况,增加知识库的透明度和可追溯性。

应用场景

  • 在法律知识管理系统中,由于法律条文和解释可能随时间、地区和案例而变化,知识验证机制可以确保系统中的法律知识保持最新和最准确。

技术与伦理挑战

处理知识偏见时,既面临技术挑战也面临伦理挑战。技术上,如何有效整合和管理来自不同来源的知识,确保知识库的一致性和准确性是一大挑战。伦理上,如何平衡不同文化和背景下的知识表达,尊重多元文化而不引入新的偏见,是必须认真考虑的问题。

通过多视角知识构建和持续的知识验证机制,可以显著减轻知识偏见,提高知识库的准确性、公正性和多样性。这种全面的知识管理策略不仅有助于构建更为公正和包容的知识环境,也为基于知识的决策提供了坚实的基础,推动社会的进步和发展。

智慧偏见(Wisdom Bias)

智慧偏见在数据处理和决策制定过程中起着关键作用,因为它涉及到如何基于现有知识和信息进行高层次的决策和行动指导。智慧偏见的处理不仅需要技术上的创新,还需要深刻的伦理思考和价值判断。以下是针对智慧偏见处理策略的技术性扩展:

伦理与价值多样性

技术实施

  • 多元伦理框架:建立一个涵盖多元文化和社会背景的伦理决策框架,用于指导智慧的形成过程。这需要跨学科的合作,结合哲学、社会学、心理学等领域的知识,以确保决策框架的全面性和多样性。

  • 价值观嵌入:在算法和决策系统的设计中,显式地嵌入多样化的价值观和伦理原则,以程序化的方式确保决策过程考虑到广泛的人类价值。

应用场景

  • 在智能健康推荐系统中,通过融入不同年龄、性别、文化背景患者的价值观和伦理考量,使得健康建议更加个性化和包容。

智慧的反思和评估

技术实施

  • 决策模拟与预测:利用模拟和预测技术,如场景分析和决策树,对智慧决策的可能结果进行预测,以便提前识别潜在的风险和长期影响。

  • 反思和评估机制:建立一个持续的决策反思和评估机制,不仅在决策实施后进行回顾,也在决策过程中进行实时监控和调整。这包括搜集相关方的反馈、评估决策的社会影响和道德后果。

应用场景

  • 在城市规划智能系统中,对重大决策(如新交通系统的引入)进行模拟和预测,以评估其对城市环境、社会结构和居民生活的长期影响。

技术与伦理挑战

智慧偏见的处理既是一个技术挑战,也是一个深刻的伦理问题。技术上,如何设计能够体现多元价值观和伦理原则的智能系统是一个复杂的问题。伦理上,确保决策过程的多样性、公正性和长期可持续性需要持续的社会对话和多方参与。

通过实施伦理与价值多样性融入和智慧的反思与评估策略,可以有效地减少智慧偏见,提高决策的质量和伦理水平。这不仅要求技术的进步,更需要社会各界的共同努力,以构建一个既智能又公正、可持续发展的未来社会。

意图偏见(Purpose Bias)

意图偏见在决定数据、信息、知识和智慧如何被使用时扮演着重要角色。在实践中,意图的设定通常基于特定的目标和预期,但这个过程可能因为缺乏多元视角和考虑而变得过于主观,导致最终的决策或行为偏向某一特定方向。以下是对意图偏见处理策略的技术性扩展:

透明的目标设定

技术实施

  • 多方利益相关者参与:在设定意图和目标时,邀请来自不同背景和视角的利益相关者参与,如消费者、专家、社会学家和伦理学家等。这可以通过开放式会议、研讨会或在线平台进行。

  • 公开记录和发布过程:通过在线平台或公共记录,公开意图设定的过程、依据和参与者意见,提供全面的过程透明度,以便社会公众和相关方能够审查和提出建议。

应用场景

  • 在开发社交媒体算法时,透明的目标设定可以确保算法促进的内容推荐不仅符合商业目标,也考虑到用户的多样性和公共利益。

动态调整与反馈机制

技术实施

  • 建立实时反馈系统:利用在线调查、用户反馈和行为分析等方式收集关于目标实现效果的反馈信息,并通过数据分析工具进行实时监控。

  • 动态调整算法:根据收集到的反馈,动态调整目标设定和相关算法的运行参数。这可以通过机器学习模型自动完成,也可以通过人工干预进行精细调整。

应用场景

  • 在智能推荐系统中,动态调整与反馈机制可以确保推荐内容随着用户偏好的变化而适时调整,避免长期固化在某一特定类型的内容推荐。

技术与伦理挑战

意图偏见的处理不仅需要技术解决方案,还面临伦理和社会挑战。如何平衡不同利益相关者的需求和预期、如何确保目标设定和调整过程中的公正性和透明性,是实施过程中必须考虑的问题。

通过实施透明的目标设定和动态调整与反馈机制,可以有效减少意图偏见,使数据、信息、知识和智慧的使用更加公正、适应性强和符合多元价值。这种方法不仅促进了技术解决方案的公平性和可持续性,也加强了社会对技术发展方向的共识和支持。

DIKWP跨越概念空间的语义空间偏见一致处理

段玉聪教授提出:借助DIKWP模型的DIKWP概念之间形式化语义的转化,可以不仅突破主客观鸿沟限制,而且实现对DIKWP各个类型偏见的语义空间的一致协同处理。借助DIKWP模型进行形式化语义转化的核心在于实现数据(Data)、信息(Information)、知识(Knowledge)、智慧(Wisdom)和意图(Purpose)之间的高效互动与一致性协同处理,特别是在处理各层面偏见时。以下是对这一过程技术性扩展的详细讨论:

形式化语义转化的实施

技术实施

  • 语义映射:定义DIKWP各层面之间的语义映射规则,确保从数据到意图的转换过程中,语义得到保持和增强。这需要采用先进的自然语言处理(NLP)、知识图谱和语义网络技术来实现。

  • 统一语义框架:建立一个统一的语义框架,包括一组共享的语义标签和关系定义,用于标注和解释DIKWP模型中的所有元素。这样,不同层面的内容可以在相同的语义背景下进行理解和处理。

应用场景

  • 在企业知识管理系统中,通过形式化语义转化,可以实现从员工日常的数据记录到高层次决策支持信息的有效转换,同时减少由于语义不明确或理解偏差导致的知识偏见。

偏见的语义空间一致协同处理

技术实施

  • 偏见识别与标注:使用机器学习和文本分析技术,在统一语义框架的基础上,识别和标注DIKWP模型中可能存在的偏见。例如,通过分析语言模式和使用场景来标注潜在的数据偏见和知识偏见。

  • 偏见动态调整机制:开发一个基于反馈和学习的动态调整机制,用于根据识别出的偏见进行内容的自动调整和优化。这包括利用用户反馈、专家审查和算法自学习来不断改进语义解释的准确性和公正性。

应用场景

  • 在在线教育平台中,通过一致协同处理教学内容中的偏见,确保提供给学习者的知识全面、公正,无论是基础数据资料、学习信息、专业知识还是教学智慧和课程设计意图。

技术与伦理挑战

实现DIKWP各个类型偏见的语义空间一致协同处理不仅面临技术挑战,如语义映射的准确性和动态调整机制的有效性,还涉及伦理挑战,包括如何平衡不同利益相关者的期望、保护个人隐私以及确保信息公正无偏。

通过DIKWP模型的形式化语义转化和偏见的一致协同处理,可以有效地跨越主客观鸿沟,实现对DIKWP各层面内容的深层理解和公正处理。这种方法不仅提高了信息处理的准确性和效率,也为建设一个更加智能、公正和可持续的信息系统奠定了基础。

对比分析

各种偏见处理方法在技术实施、目标精确性、动态适应能力和资源需求等方面具有各自的优势和局限。以下是细致的对比视角:

1. DIKWP形式化语义转化与偏见一致协同处理

优势

  • 跨层次的偏见处理:不仅识别表层的数据偏见,还能深入到信息生成、知识构建等更深层次,对偏见进行全方位的审查和校正。

  • 实时反馈与迭代改进:利用用户和系统反馈进行实时监测和调整,持续优化偏见处理策略,保持系统的长期有效性和准确性。

增加的局限性

  • 实施难度:需要跨学科合作,集成自然语言处理、机器学习、伦理学等多领域知识,对技术团队提出了较高要求。

  • 可能的过度调整:在努力消除某一偏见时可能过度调整,导致信息失衡或新的偏见产生。

2. 传统数据清洗和预处理

优势

  • 快速实施:对于结构化数据而言,这些方法可以快速去除重复、错误和缺失值,提高数据质量。

  • 成本效益:相较于高级算法,这些方法在初期需要的资源较少,容易获得快速回报。

增加的局限性

  • 忽略语义层次:这类方法主要针对数据本身,不涉及数据背后的深层含义和偏见。

  • 缺乏适应性:一旦设定,这些处理规则难以自动适应新的数据模式或环境变化。

3. 机器学习的去偏算法

优势

  • 算法优化:通过持续学习,算法可以不断优化,以更好地识别和调整偏见。

  • 适应新模式:能够自动适应新的数据模式和环境变化,提高偏见处理的精度和效率。

增加的局限性

  • 数据驱动的风险:过度依赖数据驱动的模型可能忽视非量化的伦理和社会因素。

  • 算法透明度:复杂的算法可能导致决策过程不透明,使用户难以理解和信任系统的决策。

4. 伦理审查和多元参与

优势

  • 社会和伦理考量:强调伦理审查和多元参与,确保决策过程充分考虑人文和社会价值。

  • 增强信任和接受度:通过透明和多元的参与机制增加了公众对系统的信任和接受度。

增加的局限性

  • 时间消耗和资源需求:这种方法可能需要较长的时间和更多的人力资源,特别是在大规模或复杂系统中。

  • 达成共识的挑战:多元参与可能导致决策过程中出现意见分歧,难以达成有效的共识。

尽管DIKWP形式化语义转化与偏见一致协同处理在理论上提供了一个全面和动态的解决方案,但它也面临着高昂的实施成本和复杂性挑战。相比之下,其他方法各有所长,但也各自存在局限,这强调了在选择偏见处理方法时需要根据具体情况和目标进行综合考量。在实际应用中,可能需要采用多种方法的组合来实现最佳效果

以下表格详细对比了四种处理方法:DIKWP形式化语义转化与偏见一致协同处理、传统数据清洗和预处理、机器学习的去偏算法、伦理审查和多元参与,分析它们在实施难度、目标精确性、动态适应能力、资源需求、透明度、公平性、处理效率、以及兼容性等方面的特点。

处理方法实施难度目标精确性动态适应能力资源需求主要优势主要局限性透明度公平性处理效率兼容性
DIKWP形式化语义转化与偏见一致协同处理- 全面覆盖DIKWP模型- 确保信息的语义一致性- 动态学习和优化

- 实施复

杂- 需要跨学科技术和大量资源

传统数据清洗和预处理

- 简单高效

- 成本效益高

- 忽略语义层次- 缺乏适应性
机器学习的去偏算法中至高- 自动化处理<br>- 适应新模式- 决策过程不透明- 可能产生新的偏见
伦理审查和多元参与中至高- 强调人文关怀<br>- 增强公众信任- 时间消耗大- 达成共识挑战大

透明度:指决策过程和逻辑清晰度,高透明度有助于提升用户和公众的理解与信任。

公平性:指在处理过程中是否能够保持对所有人或数据的公正无偏见态度。

处理效率:涉及到处理数据和偏见的速度和响应时间,高效率意味着能够快速应对和处理大量数据。

兼容性:指方法或技术能够与现有系统、标准或协议的兼容程度,高兼容性有助于技术的快速部署和应用。

我们可以全面地理解每种方法在实际应用中的表现及其适用场景,帮助决策者在面对具体问题时作出更合理的选择。每种方法都有其独特的优点和局限,因此在实际操作中往往需要综合考虑,甚至结合多种方法,以实现最优的偏见处理效果。

结论

在本报告中,我们深入探讨了通过DIKWP模型实现从概念安全超越到语义安全的必要性与策略,并重点讨论了DIKWP各层面偏见的识别与处理方法。通过形式化的语义转化和一致协同处理,我们提出了一个全面的框架,旨在确保信息安全的同时,克服偏见,实现数据、信息、知识、智慧和意图的公正和准确处理。

主要贡献:

  1. 超越概念安全:我们强调了在当今数据密集和知识驱动的社会中,仅仅关注数据的存储和访问安全(概念安全)是不够的。需要进一步关注数据及其派生内容的语义安全,即确保数据及其处理过程不仅安全但也公正无偏。

  2. 偏见处理策略:本报告定义了DIKWP模型中的数据偏见、信息偏见、知识偏见、智慧偏见和意图偏见,并针对每种偏见提出了具体的处理策略。这些策略包括多源数据整合、透明的信息处理、多视角知识构建、伦理与价值多样性融入等,旨在确保信息处理过程的公正性和透明度。

  3. 形式化语义转化:我们提出的综合安全框架强调了通过形式化的语义转化,实现DIKWP各层面内容的高效互动与一致性协同处理。这不仅有助于突破主客观鸿沟,还能有效地识别和处理各类偏见,确保信息的真实性和完整性。

  4. 全面的安全框架:通过DIKWP模型和一致协同处理机制,我们提出了一个从概念到语义的全面安全框架,不仅提高了数据保护的效率和有效性,也为确保数据的公正使用提供了坚实基础。

本报告提出的DIKWP模型基于的综合安全框架,为处理当今复杂信息环境中的安全和偏见问题提供了新的视角和方法。未来的研究可以进一步探索如何优化这一框架,以适应不断变化的技术和社会需求。同时,跨学科的合作将是推动这一框架发展的关键,包括技术、法律、伦理和社会科学等多个领域的专家共同参与,以确保信息安全策略的全面性和前瞻性。

通过实施本报告中提出的策略和框架,我们可以朝着建立一个更加安全、公正和可持续的信息社会迈进。

参考文献:

  1. "Designing Fair Machine Learning Models" by Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., and Galstyan, A. (2019). International Journal of Fairness in Artificial Intelligence

  2. "A Survey on Bias and Fairness in Machine Learning" by Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., and Galstyan, A. (2019). ACM Computing Surveys

  3. "Big Data's Disparate Impact" by Barocas, S., and Selbst, A. D. (2016). California Law Review

  4. "The Ethical Algorithm: The Science of Socially Aware Algorithm Design" by Michael Kearns and Aaron Roth (2019). Oxford University Press

  5. "Towards a Fair and Transparent AI" by Doshi-Velez, F., and Kortz, M. (2017). Nature Machine Intelligence.

  6. "Fairness and Abstraction in Sociotechnical Systems" by Selbst, A.D., Boyd, D., Friedler, S.A., Venkatasubramanian, S., and Vertesi, J. (2019). ACM Conference on Fairness, Accountability, and Transparency

  7. "Knowledge Graphs: New Directions for Knowledge Representation on the Semantic Web" by Ehrlinger, L., and Wöß, W. (2016). Semantic Web Journal

  8. "Natural Language Processing and Computational Linguistics: A Practical Guide to Text Analysis with Python, Gensim, spaCy, and Keras" by Bhargav Srinivasa-Desikan (2018). Packt Publishing

  9. "Differential Privacy: A Survey of Results" by Dwork, C. (2008). Theory and Applications of Models of Computation

  10. "The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World" by Pedro Domingos (2015). Basic Books

  11. "The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power" by Shoshana Zuboff (2019). PublicAffairs

  12. "Privacy and Freedom" by Alan F. Westin (1967). Atheneum

  13. "Algorithms of Oppression: How Search Engines Reinforce Racism" by Safiya Umoja Noble (2018). NYU Press

  14. "Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy" by Cathy O'Neil (2016). Crown

  15. "Artificial Unintelligence: How Computers Misunderstand the World" by Meredith Broussard (2018). MIT Press

  16. "Fair Representation: Meeting the Ideal of One Man, One Vote" by Michel L. Balinski and H. Peyton Young (1982). Yale University Press

  17. "Machine Learning: A Probabilistic Perspective" by Kevin P. Murphy (2012). MIT Press

  18. "Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics" by Yochai Benkler, Robert Faris, and Hal Roberts (2018). Oxford University Press

  19. "Decoding the Social World: Data Science and the Unintended Consequences of Communication" by Sandra González-Bailón (2017). MIT Press

  20. "Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way" by Virginia Dignum (2019). Springer



https://m.sciencenet.cn/blog-3429562-1428340.html

上一篇:超越概念安全到达语义安全
下一篇:人工智能DIKWP国际测评标准 -(征集意见草稿20240406团队版本)

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-7 00:23

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部