HI,欢迎来到起点商标网!
24小时服务QQ:2880605093

一种游戏交互方法及装置与流程

2021-01-11 10:01:07|238|起点商标网
一种游戏交互方法及装置与流程

本申请涉及互联网技术领域,特别涉及一种游戏交互方法及装置、计算设备和计算机可读存储介质。



背景技术:

随着互联网技术的发展,增强现实(augmentedreality,ar)技术也得到了快速发展,ar技术应用于游戏领域可以将虚拟的游戏角色利用增强现实技术通过手机、游戏机等媒介在现实环境下展示出来,ar游戏从位置服务、图像识别、数据处理三个方面实现了游戏与ar技术的优化组合,ar游戏在玩法和形式上的重大突破给玩家带来了全新的游戏体验。

目前市面上的ar游戏,游戏角色的行为来源于游戏的设定,与游戏用户的交互性较差,用户的面部表情无法直接影响游戏中的场景,也无法实现与游戏中的游戏角色进行互动,无法满足游戏用户对游戏的高要求。

因此,如何解决上述问题,就成为技术人员目前亟待解决的问题。



技术实现要素:

有鉴于此,本申请实施例提供了一种游戏交互方法及装置、计算设备和计算机可读存储介质,以解决现有技术中存在的技术缺陷。

根据本申请实施例的第一方面,提供了一种游戏交互方法,包括:

获取游戏角色,并采集用户面部信息;

根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪;

将所述游戏角色表情添加到所述游戏角色的面部进行展示;

根据所述用户情绪执行对应的游戏交互指令。

可选的,采集用户面部信息,包括:

调用图像采集设备采集用户面部信息。

可选的,根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情,包括:

提取所述用户面部信息的至少一个局部特征信息;

根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息;

根据每个所述面部姿态的权重信息确定游戏角色表情。

可选的,所述局部特征信息包括眼睛、嘴巴、下颚、眉毛、脸颊、鼻子和舌头中的至少一个局部特征信息;

根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息,包括:

将预设的面部姿态集合中的面部姿态分别与每个所述局部特征信息进行比对,确定每个所述面部姿态在所述用户面部信息中的权重信息。

可选的,根据所述用户面部信息和预设的面部姿态集合确定用户情绪,包括:

提取所述用户面部信息的眼睛信息和嘴巴信息;

将所述眼睛信息和所述嘴巴信息映射到基础面部模型生成虚拟面部信息;

对所述虚拟面部信息进行情绪分析,确定用户情绪。

可选的,将所述游戏角色表情添加到所述游戏角色的面部进行展示,包括:

将所述游戏角色表情添加到所述游戏角色的面部;

分别对比检查每个面部姿态与游戏角色面部的匹配情况,对于不匹配游戏角色面部的面部姿态进行调整以使每个面部姿态与游戏角色面部匹配。

根据本申请实施例的第二方面,提供了一种游戏交互装置,包括:

获取采集模块,被配置为获取游戏角色,并采集用户面部信息;

确定模块,被配置为根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪;

添加展示模块,被配置为将所述游戏角色表情添加到所述游戏角色的面部进行展示;

执行模块,被配置为根据所述用户情绪执行对应的游戏交互指令。

可选的,所述获取采集模块,进一步被配置为调用图像采集设备采集用户面部信息。

可选的,所述确定模块,进一步被配置为提取所述用户面部信息的至少一个局部特征信息;根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息;根据每个所述面部姿态的权重信息确定游戏角色表情。

可选的,所述局部特征信息包括眼睛、嘴巴、下颚、眉毛、脸颊、鼻子和舌头中的至少一个局部特征信息;

所述确定模块,进一步被配置为将预设的面部姿态集合中的面部姿态分别与每个所述局部特征信息进行比对,确定每个所述面部姿态在所述用户面部信息中的权重信息。

可选的,所述确定模块,进一步被配置为提取所述用户面部信息的眼睛信息和嘴巴信息;将所述眼睛信息和所述嘴巴信息映射到基础面部模型生成虚拟面部信息;对所述虚拟面部信息进行情绪分析,确定用户情绪。

可选的,所述添加展示模块,进一步被配置为将所述游戏角色表情添加到所述游戏角色的面部;分别对比检查每个面部姿态与游戏角色面部的匹配情况,对于不匹配游戏角色面部的面部姿态进行调整以使每个面部姿态与游戏角色面部匹配。

根据本申请实施例的第三方面,提供了一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现所述游戏交互方法的步骤。

根据本申请实施例的第四方面,提供了一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现所述游戏交互方法的步骤。

本申请实施例中,通过获取游戏角色,并采集用户面部信息;根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪,将所述游戏角色表情添加到所述游戏角色的面部进行展示;实时获取游戏用户的面部信息并根据用户的面部信息调整游戏角色的面部信息,可以实现游戏用户的面部表情直接影响游戏,如采集用户面部信息为高兴的表情,则游戏角色也表现为高兴的表情,若采集到用户面部信息为悲伤的表情,则游戏角色也表现为悲伤的表情,增强游戏用户的代入感,提高游戏用户的游戏体验,根据所述用户情绪执行对应的游戏交互指令,分析用户的实时情绪并根据用户的情绪实现与游戏中的虚拟角色实时互动,根据用户的情绪执行不同的互动指令,提高了游戏的可玩性和互动性,进一步提高了用户的游戏体验。

附图说明

图1是本申请实施例提供的计算设备的结构框图;

图2是本申请实施例提供的游戏交互方法的流程图;

图3是本申请另一实施例提供的游戏交互方法的示意图;

图4是本申请实施例提供的游戏交互装置的结构示意图。

具体实施方式

在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。

在本申请一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请一个或多个实施例。在本申请一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本申请一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。

应当理解,尽管在本申请一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。

在本申请中,提供了一种游戏交互方法及装置、计算设备和计算机可读存储介质,在下面的实施例中逐一进行详细说明。

图1示出了根据本申请一实施例的计算设备100的结构框图。该计算设备100的部件包括但不限于存储器110和处理器120。处理器120与存储器110通过总线130相连接,数据库150用于保存数据。

计算设备100还包括接入设备140,接入设备140使得计算设备100能够经由一个或多个网络160通信。这些网络的示例包括公用交换电话网(pstn)、局域网(lan)、广域网(wan)、个域网(pan)或诸如因特网的通信网络的组合。接入设备140可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(nic))中的一个或多个,诸如ieee802.11无线局域网(wlan)无线接口、全球微波互联接入(wi-max)接口、以太网接口、通用串行总线(usb)接口、蜂窝网络接口、蓝牙接口、近场通信(nfc)接口,等等。

在本申请的一个实施例中,计算设备100的上述部件以及图1中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图1所示的计算设备结构框图仅仅是出于示例的目的,而不是对本申请范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。

计算设备100可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或pc的静止计算设备。计算设备100还可以是移动式或静止式的服务器。

其中,处理器120可以执行图2所示游戏交互方法中的步骤。图2示出了根据本申请一实施例的游戏交互方法的流程图,包括步骤202至步骤208。

步骤202:获取游戏角色,并采集用户面部信息。

用户通过终端打开游戏界面进入游戏,获取用户在游戏中生成的游戏角色,该游戏角色由用户控制,同时通过调用终端的图像采集设备采集用户面部信息。

终端可以是手机、平板电脑、笔记本电脑等带有图像采集功能的智能终端,所述智能终端也可以运行相应的游戏程序,在本申请中不对终端做具体限定。

通过设置在终端中的图像采集设备如前置摄像头实时获取用户面部信息。若摄像机图像中存在多个面部,则选择最大或最清晰可识别的面部。

在本申请提供的一实施例中,用户通过手机登录游戏,控制游戏中的游戏角色进行相应的游戏操作,并通过手机的前置摄像头实时采集用户面部信息。

步骤204:根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪。

增强现实(augmentedreality,ar)技术是一种实时地计算摄像机影像的位置及角度并加上相应图像、视频、3d模型的技术,目的是在屏幕上把虚拟世界套在现实世界并进行互动,各平台厂商发布各自对应的ar接口,协助开发人员以较为简单的方式实现ar技术功能。

在ar接口中有一类功能用于处理用户脸部内容,并匹配用户面部表情,开发人员可以通过终端的前置摄像头识别并跟踪用户脸部的移动和表情,还可以检测到脸部的姿势、拓扑和表情的信息。

预设的面部姿态集合中包括了处理脸部面容的基本姿态,用于标识特定面部特征的标识,包括眼睛、嘴巴、下颚、眉毛、脸颊、鼻子和舌头对应的52种基本姿态。

可选的,根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情,包括:提取所述用户面部信息的至少一个局部特征信息;根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息;根据每个所述面部姿态的权重信息确定游戏角色表情。

在实际应用中,获取用户面部信息之后,提取所述用户面部信息的每个预设的面部姿态集合中预设的基本姿态对应的局部特征信息,如眼睛、嘴巴、下颚、眉毛、脸颊、鼻子和舌头的至少一个局部特征信息,其中,眼睛的特征信息分为左眼和右眼,再分别将每个局部特征信息分别与预设的面部姿态集合中的每个脸部面容的基本姿态进行比对,具体为将左眼的局部特征信息与预设的面部姿态集合中的左眼基本姿态比对(如监测左眼闭合系数、左眼皮运动与向下凝视一致的系数等等),将右眼的局部特征信息与预设的面部姿态集合中的右眼基本姿态对比,将嘴巴和下颚的局部特征信息与预设的面部姿态集合中的嘴巴和下颚的基本姿态对比(如下颚向前运动的系数、下颚张开的系数等等),依次类推,直至用户面部信息的每个局部特征信息比对完成。

当用户面部信息的每个局部特征信息比对完成之后,确定每个面部姿态在用户面部信息中占据的权重信息,并根据每个特定面部特征占据的权重信息确定游戏角色表情。

在本申请提供的一实施例中,沿用上例,采集到用户面部信息为眼睛睁大,嘴巴张开,下颚向下移动,两个眉毛内部和外部均向上运动,通过与预设的面部姿态集合中的52种基本姿态进行比对,确定左眼与预设的面部姿态集合中与左眼相关的基本姿态的权重值,同理确定右眼与预设的面部姿态集合中与右眼相关的基本姿态的权重值,确定嘴巴与预设的面部姿态集合中与嘴巴相关的基本姿态的权重值、确定下颚与预设的面部姿态集合中与下颚相关的基本姿态的权重值,确定眉毛与预设的面部姿态集合中与眉毛相关的基本姿态的权重值,确定脸颊与预设的面部姿态集合中与脸颊相关的基本姿态的权重值,确定鼻子与预设的面部姿态集合中与鼻子相关的基本姿态的权重值,确定舌头与预设的面部姿态集合中与舌头相关的基本姿态的权重值,进而确定用户的表情为惊讶的表情。

可选的,根据所述用户面部信息和预设的面部姿态集合确定用户情绪,包括:提取所述用户面部信息的眼睛信息和嘴巴信息;将所述眼睛信息和所述嘴巴信息映射到基础面部模型生成虚拟面部信息;对所述虚拟面部信息进行情绪分析,确定用户情绪。

在根据用户面部信息和预设的面部姿态集合确定用户情绪时,通过提取用户面部信息的眼睛和嘴巴的信息,并将眼睛信息和嘴巴信息对应映射到虚拟的基础面部模型上生成虚拟面部信息,再通过虚拟面部信息进行用户的情绪分析,确定用户的情绪。

通过平台厂商发布的ar接口可以准确地获取用户的面部信息,对用户的面部信息中的局部特征信息进行处理,如提取用户面部的眼睛信息和嘴巴信息,分析用户的表情确定用户的情绪,无需精确检测用户表情,只需进行基本匹配,即可快速、及时地确定用户的情绪。

步骤206:将所述游戏角色表情添加到所述游戏角色的面部进行展示。

将获得的游戏角色表情对应添加到游戏角色面部进行展示,具体包括将所述游戏角色表情添加到所述游戏角色的面部;分别对比检查每个面部姿态与游戏角色面部的匹配情况,对于不匹配游戏角色面部的面部姿态进行调整以使每个面部姿态与游戏角色面部匹配。

在实际应用中,用户控制的游戏角色的面部信息的基本形状是由预先捏脸生成的,捏脸为游戏中用户为控制的游戏角色进行自定义面容的操作,每个用户可以根据自己的喜好为游戏角色创建不同的面容,游戏角色的基本面部信息在蒙皮骨骼上增加控制层,捏脸的材质表现为静态材质(如妆容)和动态材质(如情绪装饰中的酒窝、眉头等)。

将游戏角色表情添加到游戏角色的面部,是将游戏角色表情与原有的捏脸数据进行重叠放置。通过warp3d将用户面部表情的拓扑结构进行标准化,在不同的脸型之间保证顶点序列的拓扑结构一致,生成每个面部姿态对应的morph信息,再通过3dsmax根据每个面部姿态的权重值和morph信息生成对应的面部骨骼姿态信息,通过逐个面部姿态对比检查的方式来检查每个面部姿态对应的morph和对应的面部骨骼姿态信息的匹配情况,对于匹配的面部骨骼姿态信息和morph则根据面部姿态的morph信息覆盖游戏角色面部的对应的morph信息。对于不匹配的面部骨骼姿态信息和morph信息的情况,通过调整蒙皮点位置与权重使得面部骨骼姿态信息和morph进行匹配。

在本申请提供的实施例中,沿用上例,以用户面部信息的嘴巴的局部特征信息为例,嘴巴对应的面部姿态为嘴巴张开,通过warp3d生成嘴巴张开对应的morph信息,通过放置蒙皮点和初始权重信息根据morph信息morph1生成嘴巴对应的面部骨骼姿态信息pose1,通过嘴巴对应的面部姿态对比检查嘴巴部分的morph1和pose1的匹配情况,若匹配则根据morph1与游戏角色面部的嘴巴部分嘴硬的morph进行叠加,若不匹配,则通过调整蒙皮点位置与权重使得嘴巴部分的morph1和pose1相匹配,进而再根据morph1与游戏角色面部的嘴巴部分嘴硬的morph进行叠加。

步骤208:根据所述用户情绪执行对应的游戏交互指令。

根据用户情绪执行对应的游戏交互指令,具体可以根据游戏的设定进行交互,如获取的用户情绪为高兴,在游戏中即可获取并执行与高兴对应的游戏交互指令如鼓掌欢呼,如获取到用户情绪为惊吓,则在游戏中获取并执行与惊吓对应的游戏交互指令如后退两步等等。

本申请实施例提供的游戏交互方法,通过获取游戏角色,并采集用户面部信息;根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪,将所述游戏角色表情添加到所述游戏角色的面部进行展示;实时获取游戏用户的面部信息并根据用户的面部信息调整游戏角色的面部信息,可以实现游戏用户的面部表情直接影响游戏,如采集用户面部信息为高兴的表情,则游戏角色也表现为高兴的表情,若采集到用户面部信息为悲伤的表情,则游戏角色也表现为悲伤的表情,增强游戏用户的代入感,提高游戏用户的游戏体验,根据所述用户情绪执行对应的游戏交互指令,分析用户的实时情绪并根据用户的情绪实现与游戏中的虚拟角色实时互动,根据用户的情绪执行不同的互动指令,提高了游戏的可玩性和互动性,进一步提高了用户的游戏体验。

图3示出了本申请一实施例的游戏交互方法,该游戏交互方法以对获取用户面部信息进行游戏交互为例进行描述,包括步骤302至步骤320。

步骤302:获取游戏角色,并调用图像采集设备采集用户面部信息。

在本申请提供的实施例中,用户通过手机启动游戏,获取用户在游戏中的游戏角色a,并调用手机的前置摄像头实施采集用户的面部信息的数据。

步骤304:提取所述用户面部信息的至少一个局部特征信息。

在本申请提供的实施例中,提取所述用户面部信息的左眼、右眼、嘴巴、下颚、眉毛、脸颊、鼻子和舌头的局部特征信息。

步骤306:根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息。

在本申请提供的实施例中,预设的面部姿态集合中包括了处理脸部面容的52种基本姿态,其中左眼相对应的基本姿态有7种,右眼相对应的基本姿态有7种,嘴巴和下颚对应的基本姿态有27种,眉毛、脸颊和鼻子对应的基本姿态有10种,舌头对应的基本姿态有1种。

将面部信息中左眼的局部特征信息与面部姿态集合中的左眼对应的7种基本姿态一一比对后,确定左眼对应的7种基本姿态中每个基本姿态的权重信息,依次类推,依次确定右眼对应的7种基本姿态中每个基本姿态的权重信息,确定嘴巴和下颚对应的27种基本姿态中每个基本姿态的权重信息,确定眉毛、脸颊和鼻子对应的10种基本姿态中每个基本姿态的权重信息,确定舌头对应的1种基本姿态的权重信息。

步骤308:根据每个所述面部姿态的权重信息确定游戏角色表情。

在本申请提供的实施例中,通过warp3d将用户面部表情的拓扑结构进行标准化,在不同的脸型之间保证顶点序列的拓扑结构一致,生成每个基本姿态对应的morph信息,再通过3dsmax根据每个面部姿态的权重值和morph信息生成对应的面部骨骼姿态信息,进而确定游戏角色表情。

步骤310:将所述游戏角色表情添加到所述游戏角色的面部,分别对比检查每个面部姿态与游戏角色面部的匹配情况,对于不匹配游戏角色面部的面部姿态进行调整以使每个面部姿态与游戏角色面部匹配。

在本申请提供的实施例中,分别检查每个基本姿态对应的morph信息和对应的面部骨骼姿态信息的匹配情况,对于不匹配的面部骨骼姿态信息和morph信息的情况,通过调整蒙皮点位置与权重使得面部骨骼姿态信息和morph进行匹配直至匹配成功,将匹配成功的基本姿态对应的morph信息覆盖游戏角色面部的对应的morph信息,完成将所述游戏角色表情添加到所述游戏角色的面部的操作。

步骤312:将眼睛信息和嘴巴信息映射到基础面部模型生成虚拟面部信息。

在本申请提供的实施例中,获取用户面部信息的眼睛信息和嘴巴信息的局部特征信息,并将眼睛信息和嘴巴信息对应映射到虚拟的基础面部模型上生成虚拟面部信息。

步骤314:对所述虚拟面部信息进行情绪分析,确定用户情绪。

在本申请提供的实施例中,通过虚拟面部信息进行用户的情绪分析,确定用户的情绪。

步骤316:根据所述用户情绪执行对应的游戏交互指令。

在本申请提供的实施例中,通过用户的情绪获取并执行对应的游戏交互指令,实现通过用户情绪与游戏中虚拟角色互动的功能。

本申请实施例提供的游戏互动方法,通过获取游戏角色,并采集用户面部信息;根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪,将所述游戏角色表情添加到所述游戏角色的面部进行展示;实时获取游戏用户的面部信息并根据用户的面部信息调整游戏角色的面部信息,可以实现游戏用户的面部表情直接影响游戏,如采集用户面部信息为高兴的表情,则游戏角色也表现为高兴的表情,若采集到用户面部信息为悲伤的表情,则游戏角色也表现为悲伤的表情,增强游戏用户的代入感,提高游戏用户的游戏体验,根据所述用户情绪执行对应的游戏交互指令,分析用户的实时情绪并根据用户的情绪实现与游戏中的虚拟角色实时互动,根据用户的情绪执行不同的互动指令,提高了游戏的可玩性和互动性,进一步提高了用户的游戏体验。

与上述方法实施例相对应,本申请还提供了游戏交互装置实施例,图4示出了本申请一个实施例的游戏交互装置的结构示意图。如图4所示,该装置包括:

获取采集模块402,被配置为获取游戏角色,并采集用户面部信息;

确定模块404,被配置为根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪;

添加展示模块406,被配置为将所述游戏角色表情添加到所述游戏角色的面部进行展示;

执行模块408,被配置为根据所述用户情绪执行对应的游戏交互指令。

可选的,所述获取采集模块402,进一步被配置为调用图像采集设备采集用户面部信息。

可选的,所述确定模块404,进一步被配置为提取所述用户面部信息的至少一个局部特征信息;根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息;根据每个所述面部姿态的权重信息确定游戏角色表情。

可选的,所述局部特征信息包括眼睛、嘴巴、下颚、眉毛、脸颊、鼻子和舌头中的至少一个局部特征信息;

所述确定模块404,进一步被配置为将预设的面部姿态集合中的面部姿态分别与每个所述局部特征信息进行比对,确定每个所述面部姿态在所述用户面部信息中的权重信息。

可选的,所述确定模块404,进一步被配置为提取所述用户面部信息的眼睛信息和嘴巴信息;将所述眼睛信息和所述嘴巴信息映射到基础面部模型生成虚拟面部信息;对所述虚拟面部信息进行情绪分析,确定用户情绪。

可选的,所述添加展示模块406,进一步被配置为将所述游戏角色表情添加到所述游戏角色的面部;分别对比检查每个面部姿态与游戏角色面部的匹配情况,对于不匹配游戏角色面部的面部姿态进行调整以使每个面部姿态与游戏角色面部匹配。

本申请实施例提供的游戏交互装置,通过获取游戏角色,并采集用户面部信息;根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪,将所述游戏角色表情添加到所述游戏角色的面部进行展示;实时获取游戏用户的面部信息并根据用户的面部信息调整游戏角色的面部信息,可以实现游戏用户的面部表情直接影响游戏,如采集用户面部信息为高兴的表情,则游戏角色也表现为高兴的表情,若采集到用户面部信息为悲伤的表情,则游戏角色也表现为悲伤的表情,增强游戏用户的代入感,提高游戏用户的游戏体验,根据所述用户情绪执行对应的游戏交互指令,分析用户的实时情绪并根据用户的情绪实现与游戏中的虚拟角色实时互动,根据用户的情绪执行不同的互动指令,提高了游戏的可玩性和互动性,进一步提高了用户的游戏体验。

本申请一实施例中还提供一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现所述的游戏交互方法的步骤。

本申请一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现如前所述游戏交互方法的步骤。

上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的游戏交互方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述游戏交互方法的技术方案的描述。

上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。

所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。

需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。

以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本申请的内容,可作很多的修改和变化。本申请选取并具体描述这些实施例,是为了更好地解释本申请的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。

起点商标作为专业知识产权交易平台,可以帮助大家解决很多问题,如果大家想要了解更多知产交易信息请点击 【在线咨询】或添加微信 【19522093243】与客服一对一沟通,为大家解决相关问题。

此文章来源于网络,如有侵权,请联系删除

相关标签: 虚拟技术
tips