WO1996036945A1 - Dispositif de traitement d'une image, procede de traitement d'une image dispositif de jeu utilisant ces derniers et support de memoire - Google Patents

Dispositif de traitement d'une image, procede de traitement d'une image dispositif de jeu utilisant ces derniers et support de memoire Download PDF

Info

Publication number
WO1996036945A1
WO1996036945A1 PCT/JP1996/001331 JP9601331W WO9636945A1 WO 1996036945 A1 WO1996036945 A1 WO 1996036945A1 JP 9601331 W JP9601331 W JP 9601331W WO 9636945 A1 WO9636945 A1 WO 9636945A1
Authority
WO
WIPO (PCT)
Prior art keywords
viewpoint
image processing
moving
image
processing apparatus
Prior art date
Application number
PCT/JP1996/001331
Other languages
English (en)
French (fr)
Inventor
Takeshi Goden
Masaru Takano
Original Assignee
Sega Enterprises, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=15388749&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO1996036945(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sega Enterprises, Ltd. filed Critical Sega Enterprises, Ltd.
Priority to US08/765,813 priority Critical patent/US5830066A/en
Priority to EP96915197A priority patent/EP0782104B1/en
Priority to KR1019970700347A priority patent/KR100276598B1/ko
Priority to JP53470996A priority patent/JP3859084B2/ja
Priority to DE69631949T priority patent/DE69631949D1/de
Publication of WO1996036945A1 publication Critical patent/WO1996036945A1/ja

Links

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/663Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating liquid objects, e.g. water, gas, fog, snow, clouds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6684Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dynamically adapting its position to keep a game object in its viewing frustrum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying

Definitions

  • Image processing apparatus image processing method, game apparatus using the same, and storage medium
  • the present invention relates to an image processing device, an image processing method, and a game device using the same. More specifically, the present invention relates to an image processing device such as a game machine using a contribution graphics. And a storage medium storing these processing procedures.
  • the game device can be used for data communication, image processing, sound, etc. between peripherals such as joysticks (operation sticks), buttons, and monitors, and peripherals.
  • the game device includes a game device main body for executing processing and the like, and a display for displaying a video signal obtained from the main body.
  • Image processing in this game device occupies a very large weight in increasing product value, and in recent years, technology for playing back moving images has also been refined.
  • a three-dimensional shape can be composed of a plurality of polygons, and texturing (patterns) can be applied to these polygons to display characters from any viewpoint. This has been done in recent years.
  • a three-dimensional character is drawn with a polygon data with texture matching, and the background part that requires movement in accordance with the movement of the camel and the change of the viewpoint is also required.
  • a TV game device that draws with textured polygon data (for example, “Rayleche” manufactured by SEGA ENDERPLISES Co., Ltd.). —S I ”) 0
  • the direction of the camera is denoted by E
  • the direction of the force camera is denoted by F
  • the field of view is denoted by G.
  • the direction of the camera is F 1 and the field of view is G 1
  • passing point q 11 and passing point q 1 is F 2
  • the camera's orientation is F 3 origin of a viewed cortex G 3 becomes, ... direction change so that the viewing G had rather large changes at one point (second prior art) 0
  • this device displays a river as a background or the like.
  • Water in this river The flow is expressed using a texture-mapped polygon, and a texture that looks like a water stream is attached to the polygon along the flow of the river, and the texture coordinates are displayed over time. Accordingly, it is changed according to the direction in which water flows. For example, as shown in Fig. 25, when the coordinates of the texture are projected onto the polygons 150, 150, ... with arbitrary axes, the polygons 150, 150 , ⁇ ⁇ ⁇ The entire screen is displayed to move in the same direction. As shown in Figure 26, each of the polygons 15 1, 15 2, 15 3, 15: 4, 15 5, and 15 6 is n times the texture. , It is possible to represent the meandering river flow according to the shape of each polygon 15 1, 15 2, 15 3, 15 4, 15 5, and 15 6 (Third conventional example).
  • the background 2 If you look at an object at a distance of 20 or an object at a long distance or at a distance, you can see the display range of the screen as 230 (fourth conventional example).
  • the maximum number of polygons that can be displayed simultaneously is limited, so the number of polygons displayed is controlled so that the number of polygons does not exceed the maximum number on the entire screen.
  • a map created separately from the game environment is included in the game environment, so that the flow of the game is interrupted.
  • the viewpoint is always in the game, if the content of another is displayed at all, the flow of the game is interrupted and the player is confused.
  • a Z-buffer method or a Z-sort method is often used to display the image.
  • Z buffer depth information of the object
  • the coordinate value may be calculated as an integer (handled as a fixed decimal point).
  • special processing is used to represent the depth of an object at infinity.
  • the object if the display range in the depth direction is limited in order to ensure accuracy by the Z-buffer method, the object must be placed at a distance within the display range 230. . That is, as shown in FIG. 27 (a), the object 2 21 must be arranged so as to be within the display range 230.
  • the viewpoint 210 moves to the left side of the figure
  • the background 220 at infinity moves, but the object at a long distance (or the object at no distance) does not move.
  • the number of all polygons on the entire surface is controlled.
  • the game screen is composed of a polygon representing the background and a polygon representing the enemy, etc., especially when the enemy is displayed in large numbers according to the progress of the game. There is. Therefore, the number of polygons in the background is reduced to display the energy, and a part of the background image may be missing (so-called polygon drop).
  • the lack of a background image caused the quality of the game image to be significantly impaired.
  • a first object of the present invention is to provide an image processing device that does not interrupt the flow of a game.
  • a second object of the present invention is to provide an image processing device capable of moving a viewpoint in a natural state.
  • a third object of the present invention is to provide an image processing device capable of expressing natural motion.
  • a fourth object of the present invention is to provide an image processing apparatus that makes a screen at a long distance look similar to a natural state even when the viewpoint moves.
  • a fifth object of the present invention is to provide an image processing device capable of preventing a background image from being lost.
  • the present invention is directed to an image processing apparatus that moves a moving object configured on three-dimensional space coordinates and generates a viewpoint image obtained by viewing the moving object from a predetermined viewpoint, wherein information on the moving object is expressed. It is provided with an information representation generating means for configuring the information representation on three-dimensional spatial coordinates.
  • the information-representation-generating means constitutes a planar body representing a position of the moving body as the information representation.
  • the information representation body generating means changes the planar body from a folded state to an open state.
  • the present invention includes a viewpoint moving unit that moves the viewpoint so as to display both the moving object and the information representation when the information expression is configured.
  • the viewpoint movement unit further is to move toward the viewpoint in the information representation body 0
  • the present invention further includes display means for displaying the generated viewpoint image.
  • a game apparatus for playing a game while moving on a three-dimensional space coordinate system by the moving object, and includes any one of the image processing apparatuses described above.
  • the present invention relates to an image processing method for generating a viewpoint image in which a moving object configured on three-dimensional spatial coordinates and an information representing body in which information on the moving object is expressed are viewed from a predetermined viewpoint.
  • a third step of moving the viewpoint toward the information expression so as to express the information expression in a large size is a third step of moving the viewpoint toward the information expression so as to express the information expression in a large size.
  • the image processing for displaying the information representing body such as the planar body on the three-dimensional spatial coordinates in relation to the moving display body is performed, the planar body in which necessary information is written is displayed. This allows the viewer to see the scene without discomfort and smoothly connect to subsequent images. Further, according to the present invention, it is possible to perform effective image processing regarding game development.
  • the planar body for example, a map
  • the planar body can be gradually enlarged and displayed, and the map is actually displayed on the game screen. The player can be given an interval as if they were watching.
  • the image processing is performed such that the planar body is displayed from the folded state to the open state, it is possible to provide a device that gives a sense close to reality.
  • the present invention provides a moving object configured in three-dimensional spatial coordinates, a point of interest provided on a trajectory through which the moving object passes, and a passing point provided on a trajectory through which the moving object has passed. And a visual axis determining means for determining a visual axis direction based on the position information of the point of interest and the information of the passing point position.
  • the visual axis determining means determines a visual axis direction based on positional information of the point of interest and the passing point at an equal distance before and after the moving body.
  • the viewpoint determining means changes distances from the moving body to the point of interest and the passing point, respectively, according to a property of the curve when the moving body is moving on the curve. Things.
  • the present invention includes display means for displaying the generated viewpoint image.
  • the present invention is a game device for playing a game while moving on three-dimensional space coordinates with the moving object, and includes the image processing device according to any one of the above.
  • the present invention relates to an image processing apparatus that moves a moving object configured on three-dimensional space coordinates and generates a viewpoint image viewed from the viewpoint of the moving object.
  • the apparatus further includes viewpoint determining means for smoothly changing a line of sight centered on the viewpoint in accordance with the trajectory of the moving body.
  • Smoothly changing the line of sight according to the trajectory of the moving body means that a predetermined trajectory or a property of a trajectory based on a result of the movement of the moving body, for example, based on a curvature, a tangent vector, a derivative, and the like. This means that the line of sight changes continuously as a whole or at least in some sections.
  • the viewpoint determining means determines a direction of a line of sight centered on the viewpoint based on coordinates on trajectories before and after the moving body.
  • the viewpoint determination means calculates two coordinates at an equal distance in front of and behind the moving body, and sets a straight line connecting these coordinates as the direction of the line of sight.
  • the viewpoint determining means when the moving object is moving on a curve, changes each distance from the moving object to coordinates before and after the moving object according to the property of the curve. It is something.
  • the present invention further includes display means for displaying the generated viewpoint image.
  • the present invention is a game device for playing a game while moving on three-dimensional space coordinates with the moving object, and includes any one of the image processing devices.
  • the present invention relates to an image processing method for moving a moving object formed on three-dimensional space coordinates and generating a viewpoint image viewed from the viewpoint of the moving object.
  • the moving display when the moving display is moving in the predetermined direction, at least one or more coordinates before and after the current coordinates of the moving display are captured, and the direction of the viewpoint is determined based on these coordinates.
  • the viewpoint movement is close to the actual viewpoint movement. It can be a device capable of more natural expression. In addition, effective image processing for game development becomes possible.
  • the moving display when the moving display is moving on a curve, the distance of the coordinates taken in before and after the current coordinates of the moving display is changed in accordance with the curvature of the curve. It is possible to obtain a viewpoint movement close to.
  • the present invention provides an image processing apparatus that attaches a texture to each of a plurality of connected polygons and generates a predetermined image.
  • a coordinate processing means for determining a reference vector for each of the plurality of polygons connected to each other and moving the texture in the direction of the reference vector; It is attached to the gon.
  • the present invention relates to an image processing apparatus that attaches a texture to each of a plurality of connected polygons and generates a predetermined image.
  • a reference vector is determined for each of a plurality of vertically or horizontally connected polygon rows in the vertical or horizontal direction, and the direction of the reference vector is determined without deforming the texture. It is provided with coordinate processing means for moving.
  • the coordinate processing means determines the reference vector based on a predetermined curve.
  • the reference vector for each of the plurality of polygons is continuous, and the texture corresponds to a flow along the curve.
  • the present invention further comprises display means for displaying the generated image.
  • the present invention relates to an image processing method for attaching a texture to each of a plurality of connected polygons and generating a predetermined image.
  • a plurality of polygons connected vertically and horizontally are provided with a reference vector for each of the vertical and horizontal polygon rows, and the reference vector is provided. It is moving without deforming the texture in the direction of the toll. For this reason, for example, a screen with a flow such as a flow of river water can be more realistically represented.
  • the reference line segment is given based on a predetermined curve (for example, a path through which a river flows), there is no change in the density of the texture, and the natural flow is reduced. Can be expressed.
  • the present invention is directed to an image processing apparatus that moves a moving object configured on three-dimensional space coordinates and generates a viewpoint image viewed from the viewpoint of the position of the moving object.
  • a movement processing means for moving the viewpoint together with the movement of the viewpoint is provided.
  • the background image has a cylindrical shape or a spherical shape.
  • the present invention further includes display means for displaying the generated viewpoint image.
  • the present invention is a game device for playing a game while moving on three-dimensional space coordinates with the moving object, and includes any one of the image processing devices.
  • the present invention relates to an image processing method for moving a moving object configured on three-dimensional space coordinates and generating a viewpoint image viewed from the viewpoint of the position of the moving object.
  • a second step of moving a background image representing a distant background based on the moving amount is a second step of moving a background image representing a distant background based on the moving amount.
  • the predetermined screen is moved in accordance with the movement of the viewpoint, so that even if the viewpoint moves, an object or the like irrespective of infinity or distance can be correctly displayed, and a more realistic expression can be obtained. it can.
  • effective image processing for game development becomes possible.
  • the predetermined screen can be arranged at a cylindrical or spherical position, the viewpoint can be arranged at the center, and the center can be moved with the movement of the viewpoint. Objects that are not related to infinity or distance can be displayed correctly.
  • the present invention relates to an image processing apparatus that moves a moving object configured on three-dimensional space coordinates and generates a viewpoint image viewed from the viewpoint of the position of the moving object using a polygon.
  • Polygons that compose the viewpoint image are classified into a plurality of polygons, and the number of polygons to be displayed is controlled so that the number of displayed polygons is equal to or less than a predetermined maximum display number for each classification. It is equipped with a gon number control means.
  • the polygon number control means classifies the polygons constituting the viewpoint image into polygons and other polygons representing at least a background.
  • the present invention further includes display means for displaying the generated viewpoint image. ⁇ .
  • the present invention is a game device for playing a game while moving on three-dimensional space coordinates by the moving object, and includes any one of the image processing devices.
  • the present invention relates to an image processing method for moving a moving object configured on three-dimensional space coordinates and generating a viewpoint image of the position of the moving object from a viewpoint using a polygon.
  • screens other than the moving display body are divided into a plurality of types, the number of polygons assigned to each screen is individually limited, and each screen is configured within the limit. Therefore, for example, even when a large number of energies appear, the polygon of the background image is not lost.
  • the present invention relates to an image processing apparatus that moves a moving object configured on three-dimensional spatial coordinates and generates a viewpoint image viewed from the viewpoint of the position of the moving object. It has a visual field changing means that changes according to the situation.
  • the visual field changing means may include a visual field when there is no object in front of the moving object. It widens the field and narrows the field of view when there is an object.
  • the present invention further includes display means for displaying the generated viewpoint image.
  • the present invention is a game device for playing a game while moving on three-dimensional space coordinates by the moving object, and includes any one of the image processing devices.
  • the present invention provides an image processing method for moving a moving object formed on three-dimensional space coordinates and generating a viewpoint image viewed from the viewpoint of the position of the moving object.
  • the second step is to increase the field of view when there is no object, and to narrow the field of view when there is an object.
  • the visual field is changed according to the situation in front of the moving body, so that a natural image can be obtained.
  • a natural image For example, when a truck carrying a character is running in a wilderness, a wide field of view can be obtained by widening the field of view.
  • the feeling of obstruction can be obtained by reducing.
  • the present invention is a storage medium storing a procedure for causing a processing device to execute any one of the above methods.
  • Storage media include, for example, floppy disks, magnetic tapes, magneto-optical discs, CD-R0M, DVDs R0, and more. Includes cartridges with RA memory or flash memory with backup, nonvolatile RAM cartridges, etc.
  • a storage medium is a medium on which information (mainly digital data and programs) is recorded by some physical means, and which allows a processing unit such as a computer or a dedicated processor to perform a predetermined function. You can do it. BRIEF DESCRIPTION OF THE FIGURES
  • FIG. 1 is a perspective view showing the appearance of the image processing apparatus of the present invention.
  • FIG. 2 is a block diagram of the embodiment.
  • FIG. 3 is a flowchart showing the operation of the camera work of the embodiment.
  • FIG. 4 is an explanatory diagram of the operation of the embodiment.
  • FIG. 5 is an explanatory diagram of the operation of the embodiment.
  • FIG. 6 is a flowchart of an operation for obtaining a smooth viewing angle according to another embodiment.
  • FIG. 7 is an explanatory diagram of the operation.
  • FIG. 8 is an explanatory diagram of the operation.
  • FIG. 9 is an explanatory diagram of the same operation.
  • FIG. 10 is an explanatory diagram of the same operation.
  • FIG. 1 is a flowchart of the operation of creating a river flow in the other embodiment.
  • FIG. 12 is an explanatory diagram of the operation.
  • FIG. 13 is an explanatory diagram of the operation.
  • FIG. 14 is an explanatory diagram of the operation.
  • FIG. 15 is a flowchart of the movement operation of the background and the like in the other embodiment.
  • Figure 16 is an illustration of the same gauge operation.
  • FIG. 17 is an explanatory diagram of the same operation.
  • FIG. 1 & is a flowchart of the operation related to the polygon restriction in the other embodiment.
  • FIG. 19 is an explanatory diagram of the same operation.
  • FIG. 20 is an explanatory diagram of this operation.
  • FIG. 21 is a flowchart of the operation relating to the viewing angle in the other embodiment.
  • FIG. 22 is an explanatory diagram of conventional viewing angle processing.
  • Figure 23 is an illustration of camera orientation and field of view.
  • FIG. 24 is an explanatory diagram of a visual field obtained by conventional viewing angle processing.
  • Figure 25 is a diagram for explaining the flow of a conventional river.
  • Figure 26 is a diagram for explaining the flow of a conventional river.
  • FIG. 27 is an explanatory diagram of a conventional background movement. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIGS. Figure 1 shows the appearance of this game device.
  • reference numeral 1 indicates a game device main body.
  • the game device body 1 has a box shape.
  • the display 1 includes a display 1a including a CRT, a projector, a liquid crystal display, a plasma display, and the like as display means.
  • An operation panel 2 is provided on the lower front surface of the display 1a.
  • a speed force mounting hole (not shown) is provided on the side of the display 1a, and a speaker 14 is provided inside these holes.
  • a game processing board 10 is provided inside the game apparatus main body 1.
  • the display 1 a, the operation device 11 of the operation panel 2, and the speed 14 are connected to the game processing board 10. With such a structure, the player can enjoy the game using the display 1 a and the operation device 11 of the operation panel 2.
  • the operation device 11 provided on the operation panel 2 includes a joystick 2a, a push button 2b, and a force. The player can operate the character by the joystick 2a and the button 2b.
  • FIG. 2 is a block diagram showing a game device to which the data processing device of the embodiment is applied.
  • This game device includes a display 1 a, an operation device 11 disposed on an operation panel 2, a game processing board 10, and a speaker 14.
  • the display 1a displays, for example, an image of a game similar to that on the Delphi I, and a projector may be used instead of the display 1a.
  • the game processing board 10 has a CPU (central processing unit) 101, a ROM 102 RAM I 03, a sound device 104 AP (amplifier) 105 , I / O interface 106, scroll data processing device 107, co-processor (auxiliary processing device) 108, graphics data ROM 109, geome ROM 111, drawing device 111, texture data ROM 113, texture map RAM 114, motion data. It is equipped with a frame-offer 115 and an image synthesizing device 1 16 D./A converter 117.
  • the CPU 101 can store, via a line, a predetermined program, an image processing program, and the like, a memory 110, a data storage RAM 103, and a sound processor.
  • Device It is connected to 104, an input / output interface 106, a scroll data calculation device 107, a coprocessor 108, and a geometrizer 110.
  • the RAMI 03 functions as a buffer, and is used to write various commands to the geometrizer (display of intelligent objects, etc.) and to write data required for various calculations. Done.
  • the input / output interface 106 is connected to the operating device 11 so that the operating signals of the operating device 1 1 ⁇ joystick 2a and the like are converted into digital quantities. Taken in by CPU101.
  • the sound device 104 is connected to a speaker 14 via a power amplifier 105 so that the acoustic signal generated by the sound device 104 is amplified by the speaker 14 after power amplification. Given to.
  • the CPU 101 operates the operation signal from the operation device 11 and the graphic data from the graphic data ROM 109 based on a program incorporated in the ROM 110, or Motion data from motion data R0Ml11 ("Character such as self, energy etc.” and “Background of moving path, terrain, sky, various structures, etc.”) (3D data) is read, and behavior calculation (simulation) and calculation of special effects are performed at least.
  • the behavior calculation simulates the movement of the character in the virtual space based on the player's operation signal from the operation device 11, and after the coordinate values in the three-dimensional space are determined.
  • a graphic data ROM 109 is connected to the co-processor 108, and accordingly, a predetermined graphic data is stored in the co-processor 108; ⁇ Passed to 1).
  • the coprocessor 108 is primarily intended to undertake floating point operations. As a result, various judgments are made by the co-processor # 08, and the judgment results are given to the CPU 101, so that the calculation load of the CPU can be reduced.
  • the geometry riser 110 is connected to the motion data R0 ⁇ 111 and the drawing device 112.
  • the motion data R 0 ⁇ 1 1 1 includes the shape data composed of a plurality of polygons (three-dimensional data such as characters consisting of each vertex, terrain, background, etc.). ) Is stored, and this shape data is passed to the geometry It is.
  • the geometrizer 110 performs perspective transformation of the shape data specified by the transformation matrix sent from the CPU 101, and converts the coordinate system in the three-dimensional virtual space to the view coordinate system. Get the data.
  • the drawing device 112 attaches the texture to the transformed shape data of the visual field coordinate system, and outputs it to the frame buffer 115.
  • the drawing device 112 is connected to the texture data R0M113 and the texture map RAM 114, and at the same time, the Connected to 15.
  • the polygon data refers to a set of relative or absolute coordinates of the vertices of a polygon (polygon: mainly a triangle or a quadrangle) consisting of a collection of vertices.
  • the figure data R0M109 stores polygon data set relatively coarse enough to execute a predetermined determination.
  • the motion data R0M111 stores polygon data that is more precisely set with respect to the shape that composes the screen, such as the character, the truck, and the background. I have.
  • the scroll data computing device 107 computes the data of the screen D—the screen of characters (stored in R0M102), such as characters.
  • the output signal of the frame buffer 115 and the output signal of the frame buffer 115 are combined by an image forming apparatus 116, and the combined signal is further converted to a digital signal by a D / A converter 117. Is converted into an analog signal and input to the display 1a.
  • the polygon screen (simulation results) such as characters, trucks, and terrain (background) temporarily stored in the frame buffer 115 are displayed.
  • the scrolling of the text information is combined with the screen according to the specified priority to generate the final frame image data.
  • This image data is converted into an analog signal by the D / A converter 117, sent to the display 1a, and the game image is displayed in real time.
  • FIG. 3 is a flowchart illustrating the operation. 4 and 5 are explanatory diagrams of the operation.
  • FIGS. 4 and 5 are explanatory diagrams taking this scene as an example.
  • the gate 20 runs on the track 21 in the direction of the background 23.
  • the trolley 20 may be stopped, and the background 23 or the like may be approached as indicated by the arrow in the drawing.
  • the truck 20 has a character 24 (25) on it.
  • Character 24 (25) expands map 26.
  • the curve that turns around is the trajectory when the coordinates of the viewpoint of the force camera described later move. There are six points on this curve, labeled "1,""2,”"3,”"4,””5,” and "6.”
  • the camera's viewpoint moves in the order of these numbers. That is, it goes upward from the bottom centering on the character 24 (25), and goes further downward.
  • the direction of movement of the camera's viewpoint is counterclockwise.
  • FIG. 5 six screens are shown. These screens are shown in FIGS. 5 (a), (), (c), (d), (e), (f), respectively. The screen changes in this order.
  • FIGS. 5A to 5F correspond to images photographed from the viewpoints 1 to 6 of the camera in FIG. 4, respectively.
  • Fig. 5 (a) is drawn with the tip of the truck 1 as the camera's viewpoint 1; the track 21 in the direction the truck 1 travels, the ground 22, the mountain, etc. The background 23 is shown. In the viewpoint 1 of this camera, the character 24 (25) is not reflected.
  • Figure 5 (b) is drawn with the viewpoint of the camera 2 behind the character 24 (25). In addition to the track 21 etc., the character 24 (25) is also shown. In FIG. 5 (c), the upper part of the character 24 (25) is drawn as the camera's viewpoint 3 and the truck 2 running on the track 21 is shown. The whole view of 0 is shown.
  • FIG. 5 (d) is drawn based on viewpoint 4, which has moved slightly before viewpoint 3, and shows that character 24 (25) spreads map 26.
  • FIG. 5 (f) is drawn based on the viewpoint 6 which is closer to the map 26, and the map 26 is displayed on the entire screen.
  • the CPU 101 performs the game according to the program built in the R0M102. (Step 301, Step 302; N0) Next, the CPU 101 completes the game processing and completes one stage. If it is determined that the processing has been completed (step 302; YES), the processing shifts to the viewpoint movement control step.
  • the viewpoint movement control step When the coordinates of the viewpoint are within the predetermined value, for example, when a certain stage is cleared, the character proceeds to a position defined in the game. In a narrative case, a character has to overcome various crises, break through difficulties, and then re-enter the port. In other words, it is a scene change.
  • the CPU 101 retrieves the coordinates of the first viewpoint of the camera from R0M102 and stores them in a predetermined area of RAM103 (step 30). 3).
  • the CPU 101 processes the display data such as the character and the background based on the coordinates of the first viewpoint stored in the RAM 103 (step 304).
  • step 305; YES when the coordinates of the viewpoint stored in the ROM 102 are within a predetermined value (step 305; YES), the CPU 101 performs image processing for displaying the map in a folded state. '(Step 306).
  • the coordinates of the viewpoint of the camera are “1” located in front of the character 25 (26). " become.
  • the display screen seen from this viewpoint "1" is composed of the tip of the trolley 20, the track 21, the ground 22, and the background 23. ⁇ ⁇ ⁇ ⁇ '''''' ⁇ ⁇ ⁇ ⁇
  • These powers are displayed on the display 1a.
  • step 307 the coordinates of the camera viewpoint stored in a predetermined area of the RAM 103 are updated (step S307; NO) because the coordinates have not reached the target (step S307; NO).
  • step 308 the processing shifts to the processing in step 304 again.
  • step 304 to 308 the coordinates of the viewpoint of the camera are changed to the character 24 (see FIG. 4).
  • the viewpoint "2" is located on the back side of 2 5).
  • the display screen viewed from this viewpoint ("2") has a track 20 and a character 24 (25) riding on it. It is composed of a track 21, ground 22 and background 23. These are then displayed on display 1a.
  • step 304 to 308 the camera As shown in Fig. 4, the coordinates of the viewpoint of the camera become the viewpoint "3" located far above the rear surface of the character 24 (25).
  • the display screen viewed from this viewpoint ("3") is a rocker 20, a character 24 (25) riding on it, and a railway track. 2 1 and ground 2 2. These are displayed on the display 1a as if viewed from the sky. ⁇ .
  • step 304 to 308 before the coordinates of the camera viewpoint reach “4” in FIG. It is assumed that the CPU 101 has determined that the coordinates of the viewpoint stored in the predetermined error have exceeded the predetermined value (Step 305; N0). Then, the CPU 101 executes image processing that is displayed so that the map 26 is gradually expanded from the folded state (step 309).
  • image processing is performed such that two points of polygons constituting a map are made common, and each of the other two points is updated each time this step is passed.
  • the book-like map is displayed from the closed state to the gradually opened state. Therefore, each time you pass through this step, the map, which looks like a book, is opened, and when it is completely open, the coordinates of the polygon are updated thereafter. It is not done.
  • step 304 to 305, 309, 307, 308 the coordinates of the camera's viewpoint are changed as shown in FIG.
  • the viewpoint "4" is reached, which is located diagonally above the rear surface of the character 24 (25).
  • the display screen viewed from this point of view ("4") is an enlarged clock 20 and a key board 24 (25) ), An open map 26 that can be seen between these upper bodies, a track 21, the ground 22, and a background 23. These are then displayed on display 1a.
  • the CPU 101 repeats the processing of steps 304 to 305, 309, ⁇ 307, 308, and the coordinates of the camera's viewpoint become As shown in FIG. 4, the viewpoint "5" located directly above the character 24 (25) is reached. As shown in Fig. 5 (e), the display screen viewed from this viewpoint ("5") is a part of the trolley 20 and the cow character 24 (25) riding on it. ), And the enlarged map 26 seen from between the enlarged upper body. These are then displayed on display 1a. Further, as the CPU 101 repeats the processing of steps 304 to 300, 309, 307, and 308, the coordinates of the camera's viewpoint become As shown in FIG. 4, the viewpoint "6" located in front of the character 24 (25) is reached.
  • the display screen viewed from this viewpoint (“6") is composed of the map 26 itself, which is completely expanded to the display la screen. These are then displayed on display 1a.
  • the CPU 101 determines that the viewpoint coordinates have reached the final value (step 307; YES), and executes the pre-processing of the next stage while viewing the map 26 (step 307).
  • the game processing is shifted again (Step 310) o
  • a necessary map is displayed by a command or automatically as a separate screen display instead of the game screen.
  • the map 26 is spread over the characters on the game screen, and the map 26 is displayed on the camera. Since it is displayed on the display 1a in a state of “looking into” by one click (moving the viewpoint), it is possible to avoid switching between screens and prevent interruption of the game flow.
  • information required by the player such as the player's status and position in the entire game
  • the information is used in the game using the camera work.
  • the information is displayed in relation to the character 24 (25)
  • the position of the camera viewpoint does not need to go around the character.
  • the display of the map 26 may be stopped at the viewpoint "5", for example. .
  • the position of the camera viewpoint may follow points 1 to 6 in FIG. 4 in order, may follow the reverse order, or may follow the random order.
  • the position of the camera viewpoint may move continuously between these points, or may move only on points 1 to 6.
  • the position of the camera viewpoint may move in a vertical plane as shown in FIG. 4 or may move in a horizontal plane.
  • the camera may be swung left and right or up and down slowly to pan or zoom as in the case of shooting a movie.
  • the display may include the surrounding scenery and characters.
  • the traveling scene of the truck has been described as an example, but it is needless to say that the traveling scene of the truck is not limited to such a traveling scene.
  • Ya also applies when clearing the stage, taking a break, or selecting equipment.
  • any scene that requires a screen change or temporary interruption The operation of gaze determination in this game device will now be described with reference to FIGS.
  • FIG. 6 is a flowchart showing the same operation.
  • FIG. 10 is a diagram for explaining how to determine the line of sight according to the curvature of the curve.
  • FIG. 6 shows that when the CPU 10 1 is in the middle of processing a game program, the truck 20 on which the main character is riding approaches the curve. Shall enter.
  • C.PU 10, 1. Captures the coordinates of the current void q 20 of the track 20 (step 4 0 1). ). That is, as shown in FIG. 7 (a), the coordinates (X, ⁇ , Z) of the current point q20 of the truck 20 are taken into CPU101.
  • the CPU 101 sets the distance between the current coordinates of the track 20 and the distance set value ⁇ from the current coordinates of the track 20 in accordance with a predetermined distance set value, and determines the position of the front point Q 21 on the orbit. capturing coordinates (step 4 0 2).
  • the symbol ⁇ is a distance setting value for obtaining the coordinates of a point that is a predetermined distance before and after the current point of the trolley 20; For example, it is stored in a predetermined error in RAM103. Then, the CPU 101 captures the coordinates before and after the track 20 based on the distance setting value ⁇ .
  • the CPU 101 fetches the coordinates of the point q 22 separated by the distance setting value ⁇ behind the current coordinate of the truck 20 (Ste 403).
  • the coordinates of the points (positions) q 21 and q 22 equidistant before and after the current coordinates of the truck 20 are taken in.
  • the CPU 101 performs a calculation process of connecting the coordinates obtained in steps 402 and 403 with a straight line (step 404). This is equivalent to the processing of connecting the point q 21 and the point q 22 with a straight line N, as shown in FIG. 7 (b).
  • the CPU 101 can calculate the length of the straight line N by the calculation in step 404.
  • the angle of the curve can be determined from the length of the straight line N.
  • the straight line Na between the points q21 and q22 becomes larger on a platform where the angle of the curve is obtuse.
  • the length of the straight line Na takes the maximum value 2 ⁇ .
  • the closer the curve angle is to an acute angle the smaller the straight line Nb connecting the points q21 and q22.
  • the CPU 101 determines the value of the distance ⁇ of the straight line obtained in step 404 (step 405).
  • the CPU 101 sets the distance setting value ⁇ to a standard value, assuming that the angle of the gap is an obtuse angle. It is stored in RA ⁇ 103 (step 407).
  • the CPU 101 sets the distance set value ⁇ to a small value on the assumption that the angle of the curve is an acute angle, and sets the RAMI 0 It is stored in 3 (step 406). Switching the distance setting depending on whether the angle of the force is acute or obtuse in this way is difficult even when the track 21 of the truck 20 is sharply curved. This is to change the direction of the camera naturally.
  • the CPU 101 sets the straight line N obtained in the above-mentioned step 404 as shown in FIG. 7 (b). And apply it to the current point q 20, and store it as a camera direction F in, for example, a predetermined error in RAM 103 (step 408 ).
  • the field of view is G 10 at the camera orientation F 10 at point q 10.
  • the camera direction is F 20 from points q 21 and q 22, and the field of view is G 20.
  • the direction of the camera from points q31 and q32 is F30, and the field of view is G30.
  • the fields of view change as they overlap with each other.
  • the distance setting value ⁇ is varied according to the angle, for example, as shown in Fig. 10 (a), the interval between the distance setting values ⁇ is increased when the force is gentle. As shown in FIG. 10 (b), the interval of the distance setting value ⁇ can be made small at a sharp curve. Regarding how many times the calculation of the straight line ⁇ is repeated, it is relatively small in the case of FIG. 10 (a) and relatively large in the case of FIG. 10 (b). Therefore, by changing the distance set value ⁇ according to the angle, optimal processing can be performed while reducing the load on the CPU 101.
  • two points are taken on the track before and after the truck, and the camera gaze is determined based on these two points.
  • the movement of the viewpoint (the direction of the camera F) does not move much, and can produce a natural movement.
  • the direction of the viewpoint is determined from the points before and after the current coordinate point, it is possible to cope with the case where the progress of the viewpoint is reversed.
  • the setting of the distance between the two points can be adjusted, so that the swing width of the viewpoint can be adjusted.
  • the angle of the curve can be determined by the straight line N connecting the two points, it can be directly reflected in the motion data.
  • the application of the above processing is not limited to the case where the truck moves on the track.
  • it can be applied to a platform where a car curves or an airplane goes up or down.
  • the curve does not necessarily have to be smooth.
  • the present invention can be applied to a line in which a plurality of straight lines are connected.
  • the above processing can be applied to a platform that determines the reference direction of the screen display according to a certain rule.
  • the direction of the camera may be determined based on the angle information of the straight line without moving the straight line in parallel.
  • the processing may be performed without obtaining a straight line based on direction information (angle information) obtained in advance corresponding to the curve.
  • the points at which the straight line N is calculated need not necessarily be two points sandwiching the moving object on the orbit, and the current position information of the moving object and the position information of a point through which the moving object passes (for example, (A little before and a lot before).
  • FIG. 11 is a flowchart for explaining the flow of the river according to this embodiment.
  • FIG. 12 is an explanatory diagram for explaining the relationship between a polygon and each coordinate.
  • Figure 13 is an explanatory diagram of the coordinate system of the texture, where u is on the horizontal axis and V is on the vertical axis. The image representing the river is represented by multiple polygons connected in each direction of uV.
  • FIG. 14 is an explanatory diagram showing the flow of the river represented by this processing.
  • each polygon PG 1, PG 2,... Has a curve (the same number as the polygon column direction) Kl, K 2 serving as a reference of the texture coordinates. ,...
  • the polygons PG1, PG2,... ′ Shown in this figure indicate a part of a plurality of polygons connected vertically and horizontally. Therefore, a polygon (not shown) is also connected in the lateral direction of the polygons P G1 and P G2.
  • the CPU 101 reads a reference vector 1 serving as a reference for texture coordinates prepared for each polygon PG1 (step 50'1).
  • the reference vector is determined for each polygon row in the horizontal direction (the direction orthogonal to the direction in which the river flows) based on a predetermined river path (curve).
  • the reference vector K1 of the polygon string including the polygon PG1 and the reference vector K2 of the polygon string including the polygon P.G2 are respectively determined. ing.
  • the reference vector indicates the river flow.
  • the CPU 10 # calculates the texture coordinates using the reference vector K1 (step 502). This calculation is performed, for example, as follows.
  • line segments parallel to the reference vector K 1 are L 1, L 3, and 4, and line segments orthogonal to the reference vector K 1 are L 2, Let L5 and L6.
  • the texture coordinates of the vertices p1, p2, p3, and p4 of polygon PG1 are
  • CPU 101 determines whether all polygons have been terminated (step 503)
  • step 503 since the processing has not been completed yet (step 503; N0), the number of subscripts of the polygon PG is updated so that the next polygon PG can be calculated (step 503). 504), and returns to the processing of step 501 again.
  • mapping data expressed in texture coordinates is mapped to a polygon indicating the flow of the river to express the flow of the river.
  • the texture can be deformed appropriately according to the shape of the river flow. Therefore, the flow of the river can be naturally expressed.
  • the reference vectors ⁇ 1, ⁇ 2,... ′ Correspond to the polygons PG1, PG2,.
  • the reference vector is a measure of the river flow in that polygon.
  • the reference vector may be determined from the shape of the polygon, for example, a line perpendicular to the side or a line connecting the midpoints of the sides.
  • the reference vector may be determined for each polygon based on the curve indicating the flow.
  • the conversion formula between the texture coordinates and the polygon is not limited to the above example, and another conversion formula may be used.
  • the conversion may be performed based on the angle between the polygon side and the reference vector.
  • FIG. 15 is a flowchart for explaining the screen movement processing of the embodiment.
  • FIG. 16 is an explanatory diagram of the screen moving process.
  • FIG. 17 is an explanatory diagram of the screen movement processing.
  • the display is performed using the interactive computer graphics.
  • the Z-buffer method for hidden surface removal for this display prepare the largest object within the display range in the Z direction. Also, when using the Z-SORT method for this display, prepare an object that is sufficiently large compared to other objects.
  • the largest object in the display range G of the viewpoint 69 is the object 71, so that it can be moved.
  • the object 71 is a background such as a mountain, a celestial body, or the sky.
  • the symbols 72, 73, 74 in the figure represent various objects in front of the background.
  • the CPU 101 executes the game development processing (step 601), and if there is no viewpoint shift (step 602; N0), the step 601 is executed again. Move to the processing of. For example, at this time, it is in the state shown in Fig. 17 (a).
  • the CPU 101 retrieves the coordinates of the previously captured viewpoint from the predetermined area of the RAM 103, and writes the current coordinates to the predetermined area of the RAM 103. And execute the subtraction calculation with the coordinates taken in this time (Step 604) o
  • the process returns to step 601. If the moving distance is not so large, the appearance of the distant object 71 does not change much.
  • the threshold value of this step 601 is determined based on the distance to the object 71 and the like within a range that does not give the player an uncomfortable feeling.
  • step 2 the coordinates of the predetermined object 71 are read (step 606).
  • the CPU 101 changes the coordinates of the predetermined object 71 based on the calculation result (step 607).
  • the object 71 is moved away from the object 71 by the same distance as the viewpoint 69 approaches the object 71.
  • the object 71 and the object 72 may be separated from each other and may be discontinuous.However, since the object 71 is a very distant view, the sense of discomfort is very small. Does not occur.
  • the CPU 101 stores the coordinates again in a predetermined area of the RAM 103 (step 608). After that, the CPU 101 shifts to the processing of step 601 again.
  • a sphere 76 having the largest size in the display range expressing the starry sky and the like is formed, and the viewpoint 69 is positioned at the center of the sphere 76.
  • the center may be moved with the movement of the viewpoint.
  • the position of the sphere 76 changes with the movement of the viewpoint 69.
  • the radius of the sphere 76 is the largest in the display range in the Z direction when the Z buffer method is used.
  • the Z sort an object that is sufficiently large compared to other objects is prepared, and the position of the object is moved to the same distance as the movement of the viewpoint, so that the representation of a celestial sphere at infinity can be represented Do.
  • a cylindrical infinity background image may be used instead of the sphere 76.
  • the position of the viewpoint 69 is not changed, but even if you look up or look back, you can always obtain the appropriate background such as the starry sky corresponding to the direction. You. In the past, this kind of background was often used to facilitate a background screen attached to the display screen, but in this case, the display did not change and looked unnatural regardless of the direction in which it was viewed.
  • FIG. 18 is a flowchart illustrating the operation of limiting the number of polygons according to the embodiment.
  • FIG. 19 is an explanatory diagram of the same embodiment.
  • FIG. 20 is an explanatory diagram of the same embodiment.
  • a limit value is set for each of polygons constituting characters 24, 25, etc., polygons constituting energy, etc., and polygons constituting background, etc. Have been.
  • a buffer 81 that sets the limit number R 1 of the polygons constituting the characters 24, 25, etc., and a polygon 81 constituting the energy etc.
  • a buffer 82 is provided with a limited number R2, and a buffer 83 is provided with a limited number R3 of polygons constituting the background and the like.
  • the buffers 81 to 83 may be provided in the RAM 103, for example.
  • These limit numbers R 1 to R 3 are stored in R 0 M 102, and the limit numbers R 1 to R 3 are stored in buffers 82 and 83 when the operation starts.
  • the CPU 101 executes a game development process (step 701). As a result, the CPU 101 reads the limited number R1 of polygons from the buffer 81 (step 702). Next, CPU 101 allocates this to the required character (step 703). The CPU 101 creates a character so as not to exceed the allocated number of polygons (step 704).
  • the CPU 101 reads the polygon limit number R 3 from the buffer 83 (step 705). The CPU 101 then assigns this to the required background (step 706). The CPU 101 creates a background so as not to exceed the number of assigned polygons (step 707).
  • step 708 determines whether or not there is an appearance of an energy (step 708). If no energy appears (step 708; N0 ⁇ ), the CPU 101 shifts to the processing of step 701 again.
  • steps 701 to 70 When the processing up to 8 is executed, the display screen becomes, for example, as shown in Fig. 20 (a) .
  • Fig. 20 (a) shows the clock 20 and the character riding on it. 24, 25, and the track 2 1, ground 2 2, background 2 3 are represented.
  • step 708 if there is an appearance of an energy (step 708; YES), the CPU 101 shifts to the processing of step 709 again.
  • step 709 the CPU 101 reads the polygon limit number R2 from the buffer 82 (step 709). Then, CPU 101 allocates this to the required energy (step 7110).
  • step 7110 CPU 101 creates an energy not to exceed the allocated number of polygons.
  • Step 7 1 the display screen becomes, for example, as shown in FIG. 20 (b).
  • Figure 20 (b) shows the track 20 and the characters 24 and 25 on it, the track 21, the ground 22 and the background 23, etc. The energy 27 that is aimed at is expressed.
  • FIG. 21 is a front chart for explaining the viewing angle changing operation according to the embodiment.
  • the CPU 101 executes a game expansion operation based on the program from the ROM 102 (step 801).
  • the viewing angle changes with the game development and is predetermined. Therefore, the CPU 101 determines the viewing angle from the game development (step 802).
  • the CPU 101 sets the viewing angle to a large value if, for example, the truck 20 is running in a wilderness or the like during the game processing and the viewing angle is large (step 802: large).
  • the CPU 101 sets the viewing angle to medium if the vehicle is running during a game process, for example, between a mountain and a building, and the viewing angle is medium (step 802; medium). (Step 804).
  • the CPU 101 sets the viewing angle to a small value if the viewing angle is small (step 802; small), for example, while the vehicle is running in the tunnel during the game processing (step 802; small). 805). Accordingly, in the next step 806, the CPU 101 reads the set viewing angle and executes the processing of the viewing angle (step 806).
  • the viewing angle is significantly reduced and distant is displayed.
  • the viewing angle is set to a medium level.
  • the viewing angle increases when driving on a plain or the like. Since such a change in the viewing angle matches the visual characteristics of humans, it is possible to provide a realistic game screen.

Description

明細書
画像処理装置、 画像処理方法及びこれを用いたゲーム装置並びに記憶媒体 技術分野
本発明は画像処理装置、 画像処理方法及びこれを用いたゲーム装置に関する。 詳しく はコ ンビューダグラ ッフイ クスを利用したゲーム機等の画像処理装置等に 関する。 並びにこれらの処理手順が記憶された記憶媒体に関する。
背景技術
近年のコ ンピュータグラフィ ッ ク ス技術の発達に伴い、 ゲーム装置ゃシ ミ ュ レ ー ショ ン装置などのデ一タ処理装置が広く一般に普及するようになっている。 例 えば、 ゲーム装置は、 ジョ イ スティ ッ ク (操作桿) 、 ボタ ン、 モニタ等のぺリ フ ェ ラル (周辺機器) と、 このペ リ フヱ ラルとのデータ通信や、 画像処理、 音響処 理などを実行するゲーム装置本体と、 この本体から得られる映像信号を表示する 表示用ディ スプレイ とを備えている。 このゲーム装置における画像処理は、 商品 価値を高めるうえで非常に大きなウェイ トを占めるので、 近年では動画再生の技 術も精細化してきている。
このゲーム装置の一例と して、 「タイ トルフアイ ト (商標) 上が知られている。 このものは、 キャ ラ ク タ (闘士) をスプライ ト (一枚の絵) から構成し、 背景等 •をスク ロール画面から構成している。
しかしながら、 これでは視点を変えてキャ ラクタを三次元的に表現することが できない。 そこで、 三次元的な形状を複数のポ リ ゴンから構成し、 このポ リ ゴン にテク スチヤ一 (模様) をマツ ビングしてキャ ラ ク タをいずれの視点から見ても 表示する ことができるよ うにする こ とが近年おこなわれている。
このような例と して、 三次元的キャ ラ ク タにテク スチャマツ ビングを施したポ リゴンデ一タで描画するとともに、 キャ ラクダの動作や視点の変更に順じた動き が求められる背景部分もテク スチャ付きのポ リ ゴンデータで描画等する T Vゲ一 ム棼置が知られている (例えば (株) セガ · エンダープライ ゼス製 「レイ ルチ ェ —ス I」 ) 0
これにより、 キャラクタをスプライ トで構成する場合に比べ、 キャ ラクタと、 キャラクタの動きに密接に関連する背景等を所定の視点から見て三次元的に表現 できる。
ところで、 上述した従来の T Vゲーム装置 (例えば (株) セガ ' エ ンターブラ ィゼス製 「デルチヱース I」 ) においては、 ゲームの 1 ステージが終了すると、 主人公のキャラクタが地図を見て次のス テージに移るようにしている。 このため、 こ の装置の場合、 前記地図を別のスク ロールデータで形成し、 1 ス テ一ジが終了 した時点で、 ゲーム環境に全く関係なく、 突然、 地図表示に画面を切り換えて表 示していた (第 1 の従来技術)
また、 このゲーム装置の場合、 主人公のキ ャ ラ ク タがト ロ ッ コに乗つて移動す る場面があり、 そのときの主人公の視点によるカメ ラワークを トロ ッ コの移動方 向により決定していた。 例えばトロ ッコ 2 2 0が、 図 2 2 ( a ) に示すようにポ イ ン ト q 1、 q 2、 q 3、 q 4、 …と方向を変えてゆぐ場合、 ポイ ン ト q 1 では、 ポイ ン ト q 2の座標を先読みし、 ポイ ン ト q 1 にいる主人公のキ ャ ラ ク タ の視点 を座標 (X , Y , Z , A ) (ただし、 Aは角度) として決定していた。 このよう に ト ロ ッ 2 2 ·0が各ポイ ン ト q l , . q 2, q 3 , q 4 , · · · に移動する毎に、 主人公のキ ャ ラ ク タの視点におけるカ メ ラ ワーク は、 図 2 2 ( ) に示すよ う に なる。 すなわち、 ポイ ン ト q 1では例えば座標 ( X , Y , Z , A ) 、 ポイ ン ト q 3では例えば座標 (X, Y , Z , B ) (ただし、 Bは角度) といように決定され ていた。
こ こで、 図 2 3 に示すよ う に、 カ メ ラ の方向を符号 E 、 力 メ ラ の向きを符号 F、 視野を符号 Gとする.。 すると、 図 2 4 に示すよ う に、 ポイ ン ト q 1 1 に達する前 にはカメ ラ の向きが F 1 であって視野が G 1 となり、 ボイ ン ト q 1 1 を過ぎボイ ン ト q 1 2 に達する前にはカメ ラの向きが F 2であつて視野が G 2 となり、 ボイ ン ト q 1 2を過ぎボイ ン ト. q 1 3 に達する前にはカメ ラの向きが F 3であって視 野が G 3 となり、 …というように方向転換の起点が 1点で視野 Gが大き く変化し ていた (第 2 の従来技術) 0
さらに、 こ の装置では、 背景等と して川を表示している。 こ の川における水の 流れの表現は、 テ ク スチ ャマッ ピングを施したポリ ゴンを用い、 水の流れに見え るテク スチ ャを川の流れに沿つてポリ ゴンに貼付け、 そのテ ク スチ ャ座標を時間 の経過に応じて水の流れる方向に応じて変化させている。 例えば、 図 2 5 に示す よ うに、 テク ス チ ャ の座標を任意の軸でポ リ ゴン 1 5 0、 1 5 0 、 . . · に投影 した場合、 ポ リ ゴン 1 5 0、 1 5 0、 · · · 全体に同一方向に移動するように表 示される。 また、 図 2 6 に示すよ う に、 各ポ リ ゴン 1 5 1 , 1 5 2 , 1 5 3 , 1 5 : 4、 1 5 5、 1 5 6 の各 4隅をテク スチ ャ の n倍に対応させた場合、 各ポ リ ゴ ン 1 5 1 , 1 5 2 , 1 5 3 , 1 5 4、 1 5 5、 1 5 6 の形状に応じて蛇行した川 の流れの表現が可能になる (第 3 の従来例) 。
加えて、 この装置において、 陰面消去の技法である Zバッファ法を使用して所 定の画面を作成する場合、 図 2 7 ( a ) に示すように、 視点 2 1 0から無限遠の 背景 2 2 0、 遠距離にある物体や距離のない物体 2 2 1 を見ると、 画面の表示範 囲 2 3 0 のよ うになる (第 4 の従来例) 。
さらにまた、 この装置では、 同時に表示し得るポリ ゴンの最大数には限界があ るため、 画面全体についてポリ ゴンが最大数を超えてしまわぬように、 ポリ ゴン の表示個数を制御していた (第 5の従来技術) 。
ところで、 上記第 1 の従来技術によれば、 ゲームの環境とは別に作った地図を、 ゲームの環境に入れ込んでいるため、 ゲームの流れが中断されてしま う という欠 点があった。 つま り、 視点が常にゲームの中にあるので、 全然、 別の内容が表示 されると、 ゲームの流れが遮断されててしまい遊技者に混乱を与えてしま う欠点 があった。
また、 上記第 2の従来技術によれば、 図 2 2及び図 2 4に示すように、 各ボイ ン ト q . n ( nは任意の整数) において次のポイ ン ト q · n + 1 の座標を先読み してカ メ ラの向き Fを決定しており、 方向転換の起点が 1点のために視点の振り 幅が大き くなり、 周りの状況を認識しづらいいう欠点があつた。 特に、 カーブに おいては、 死角が現実以上に発生してしま う欠点があった。
さらに、 上記第 3の従来技術によれば、 図 2 5 に示すものは、 ポ リ ゴンにテク スチ ャ座標を投影した場合、 投影面に対して等密度でテクスチ ヤ一マツ ビングさ れるが、 テクスチ ャ座標を移動させても全体的に一方向にしか動かないため、 蛇 行した川などを表現することができないという欠点があった。 また、 図 2 6 に示 すものは、 ポ リゴンに合わせてテク スチ ヤを対応させているので、 ポリ ゴン形状 に応じた方向に流れるように表現でき、 蛇行した川の流れを表現できるが、 川幅 の変化や急角度のカーブなどではテ ク スチ ャ の密度が変化した (潰れた) 状態に 表現されてしま う欠点があった。
加えて、 上記第 4の従来技術においては、 三次元コ ンピュータグラフィ ッ クを 使用しており、 この手法ではその画像の表示に Zバッ フ ァ法または Z ソー ト法を 用いるこどが多い。 現在、 処理の嵩速化が要求されているため、 Zバッ ファ (物 体の奥行き情報) を整数で記憶させたり、 座標値を整数 (固定少数点で扱う) で 演算することもある。 このため、 無限遠にある物体の奥行きを表現したい場合、 特別な処理をしている。 また、 Zバッ フ ァ法で精度を確保するために、 奥行き方 向の表示範囲に制限を加えた場合には、 その表示範囲 2 3 0に収まる距離上に前 記物体を配置する必要がある。 すなわち、 図 2 7 ( a ) に示すように、 物体 2 2 1 が表示範囲 2 3 0 に収まるように配置しなければならない。 その結果、 例えば 視点 2 1 0が図示左側に移動すると、 無限遠の背景 2 2 0 は移動するが、 遠距離 にある物体 (あるいは距離のない物体) 2 2 1 は移動しないため、 見え方が変わ つてしま う欠点があつた。
さらにまた、 上記第 5の従来技術によれば、 侧面全体の全てのポリゴン数の制 御が行われていた。 ところが、 ゲーム画面は、 背景を表すポ リ ゴン、 および、 ェ ネ ミ一等を表すポ リ ゴン等によつて構成されており、 特にヱネ ミ ーはゲーム進行 に応じて数多く表示される場合がある。 したがって、 エネ ミ 一を表示するために、 背景のポリ ゴン数が庄迫され、 背景画像の一部が欠落 (いわゆるポ リ ゴン落ち) が生じる場合がある。 背景画像の欠落はゲーム画像の品位を著しぐ損ねる原因と なっていた。
要するに、 従来のこ の種のゲーム装置等の画像処理装置にあっては、 効果的な 画 処理が達成できないと云う問題がある。
そこで、 この発明はこの課題を解決するために成されたものである。
この発明の第 1 の目的は、 ゲームの流れを中断しない画像処理装置を提供する ことにある■。 この発明の第 2の目的は、 視点を自然な状態で移動させることができる画像処 理装置を提供することにある。
この発明の第 3の目的は、 自然な動きを表現できる画像処理装置を提供する こ とにある。 ,
この発明の第 4の目的は、 視点の移動があっても遠距離にある画面が自然の状 態と.同様に見えるようにした画像処理装置を提供するこ とにある。
この発明の第 5 の目的は、 背景画像の欠落を防止可能な画像処理装置を提供す ることにある。
発明の開示
この発明は、 三次元空間座標上に構成された移動体を移動させるとともに、 前 記移動体を所定の視点から見た視点画像を生成する画像処理装置において、 前記移動体に関する情報が表現された情報表現体を三次元空間座標上に構成す る情報表現体生成手段を備えるものである。
この発明は、 前記情報表現体生成手段は、 前記情報表現体と して前記移動体の 位置を表す面状体を構成するものである。
この発明は、 前記情報表現体生成手段は、 前記面状体を折り畳まれた状態から 開いた状態へと変化させるものである。
この発明は、 前記情報表現体が構成されたときに、 前記移動体及び前記情報表 現体の両方を表示するように前記視点を動かす視点移動手段を備えるものである。 この発明は、 前記視点移動手段は、 さらに、 前記視点を前記情報表現体に向け て移動させる ものである 0
この発明は、 さ らに、 生成された前記視点画像を表示する表示手段を備える も のである。
この発明は、 三次元空間座標上を前記移動体で移動しながらゲー ムを行うゲー ム装置であって、 上記いずれかの画像処理装置を備えるものである。
この発明は、 三次元空間座標上に構成された移動体及びこの移動体に関する情 報が表現された情報表現体を所定の視点から見た視点画像を生成する画像処理方 法において、 前記移動体のみを表示する位置に前記視点を動かす第 1 のステ ッ プと、 前記移動体及び前記情報表現体の両方を表示する位置に前記視点を動かす第 2 のステ.ップと、
前記情報表現体を大き く表現するように前記視点を前記情報表現体に向けて移 動させる第 3 のステ ッ プとを備えるものである。
この発明によれば、 面状体等の情報表現体を三次元空間座標上に前記移動表示 体との関連で表示する画像処理をしているので、 必要な情報が書き込まれた面状 体を違和感なく見るこ とができ、 以後の画像に円滑につなげるこ とができる。 ま た、 この発明によれば、 ゲーム展開に関して効果的な画像処理が可能になる。
また、 この発明によれば、 視点を前記面状体に向けて移動させる制御させてい るため、 面状体 (例えばマップ) を徐々に拡大表示させることができ、 ゲーム画 面中でマップを実際に眺めているような間隔をプレイヤーに与えることができる。 また、 この発明では、 面状体が折り畳まれた状態から開いた状態に表示される ' ように画像処理されているので、 現実に近い感覚を与える装置とするこどができ る。
この発明は、 三次元空間座標内に構成された移動体と、 前記移動体がこれから 通過する軌道上に設けられた注目点と、 前記移動体がこれまでに通過した軌道上 に設けられた通過点と、 前記注目点の位置情報と前記通過点位置の情報とに基づ いて、 視軸方向を決定する視軸決定手段とを備えるものである。
この発明は、 前記視軸決定手段は、 前記移動体の前後等距離にある前記注目点 及び前記通過点の位置情報に基づいて、 視軸方向を決定するものである。
この発明は、 前記視点決定手段は、 前記移動体が曲線上を移動している場合に、 当該曲線の性質に応じて、 前記移動体から前記注目点及び前記通過点までの距離 をそれぞれ変更するものである。
この発明は、 生成された前記視点画像を表示する表示手段を備える ものである。 この発明は、 三次元空間座標上を前記移動体で移動しながらゲームを行うゲー ム装置であって、 前記いずれかに記載の画像処理装置を備えるものである。
この発明は、 三次元空間座標上に構成された移動体を移動させるとともに、 前 記移動体の視点から見た視点画像を生成する画像処理装置において、 前記視点を中心と した視線を前記移動体の軌跡に従つて滑らかに変える視点決 定手段を備えるものである。
前記視線を前記移動体の軌跡に従って滑らかに変えるとは、 予め定められた軌 跡あるいは前記移動体が移動した結果に基づく軌跡の性質、 例えば、 曲率、 接線 べク トル、 微分係数等に基づいて全体的にあるいは少なく と も一部の区間におい て連続的に視線を変えるという こ とである。
この発明は、 前記視点決定手段は、 前記移動体の前後の軌跡上の座標に基づき、 前記視点を中心と した視線の方向を決定する ものである。
この発明は、 前記視点決定手段は、 前記移動体の前後等距離にある 2つの座標 を算出し、 これらの座標を結ぶ直線を前記視線の方向とするものである。
この発明は、 前記視点決定手段は、 前記移動体が曲線上を移動している場合に、 当該曲線の性質に応じて、 前記移動体から前後の座標までのそれぞれの距嘩を変 更す'る ものである。
この発明は、 さらに、 生成された前記視点画像を表示する表示手段を備える も のである。
この発明は、 三次元空間座標上を前記移動体で移動しながらゲームを行うゲー ム装置であって、 前記いずれかの画像処理装置を備えるものである。
この発明は、 三次元空間座標上に構成された移動体を移動させるとともに、 前 記移動体の視点から見た視点画像を生成する画像処理方法において、
前記移動体の位置を読み込む第 1 のステ ッ プと、
前記移動体の位置から予め定められた距離離れた前方の軌道上に第 1 の点を設 定する第 2 のステ ッ プと、
前記移動体の位置から予め定められた距離離れた後方の軌道上に第 2 の点を設 定する第 3 のステ ッ プと、
前記第 1 の点と前記第 2の点とを結ぶ線に基づき前記視点の視線の方向を定め る第 4 のステ ッ プとを備える ものである。
この発明によれば、 移動表示体が所定方向に進行状態にあるときに、 この移動 表示体の現在の座標の前後少なく とも一つ以上の座標を取り込み、 これら座標を 基に視点の方向を決定しているので、 視点の動きが実際の視点の動きに台った近 いものとなり、 より自然な表現が可能な装置とすることができる。 また、 ゲー ム 展開に関して効果的な画像処理が可能になる。
また、 この発明では、 移動表示体の現在の座標の前後等距離の座標を取り込み、 それら 2点の座標を直線で結んで得られた方向を視点の方向しているので、 視点 の動きが実際の視点の動きに近いものとなる。
また、 この発明では、 前記移動表示体が曲線上を移動しているときには、 こ の 曲線の曲率に応じて移動表示体の現在の座標の前後の取り込み座標の距離 変更 しているので、 より現実に近い視点の動きを得るこ とができ る。
この発明は、 連結された複数のポ リ ゴンのそれぞれにテク スチ ャをはりつけ、 所定の画像を生成する画像処理装置において、
互いに連結された複数のポ リ ゴン毎に基準べク ト ルを決定し、 前記テク スチ ャ を前記基準ベク トルの方向に移動させる座標処理手段を備え、 移動された前記テ クスチヤを前記ポ リ ゴンにはりつける ものである。
この発明は、 連結された複数のポリ ゴンのそれぞれにテク スチ ヤをはりつけ、 所定の画像を生成する画像処理装置において、
縱横に連結された複数のポリ ゴンの縦または横方向のポ リ ゴン列毎に基準べク トルを決定し、 前記テ ク スチ ャを変形することなく、 こ の基準べク ト ルの方向に 移動させる座標処理手段を備えるものである。
こ の発明は、 前記座標処理手段は、 予め定められた曲線に基づき前記基準べク トルを決定する ものである。
この発明は、 前記複数のポリ ゴン毎の基準べク トルは連続し、 前記テク ス チ ャ は前記曲線に沿った流れに対応するものである。
こ の発明は、 さらに、 生成されだ前記画像を表示する表示手段を備えるもので ある。
こ の発明は、 連結された複数のポリ ゴンのそれぞれにテク ス チ ヤをはりつけ、 所定の画像を生成する画像処理方法において、
互いに連結された複数のポリ ゴン毎に基準べク トルを決定する第 1 のス テ ッ プ と、
前記テ ク スチ ャを前記基準べク ト ルの方向に移動させる第 2 のス テ ッ プと、 移動された前記テク スチャを前記ポ リ ゴンにはりつける第 3 のステ ッ プとを備 えるものである。
この発明によれば、 縦横に連結された複数のポ リ ゴンに対して、 縦または横の いずれかのポ リ ゴン列毎に基準となるべク トルを与えておき、 その基準となるベ ク ト ルの方向にテク スチャを変形させることなぐ移動している。 このため、 例え ば川の水の流れのような流れのある画面を、 より現実的に表現できる。
また、 この発明では、 前記基準となる線分を予め定められた曲線 (例えば川の 流れる経路) を基に与えているので、 テク スチ ャ一の密度の変化がなく 、 かつ自 然な流れを表現できる。
この発明は、 三次元空間座標上に構成された移動体を移動させるとともに、 こ の移動体の位置の視点から見た視点画像を生成する画像処理装置において、 遠方の背景を表す背景画像を、 前記視点の移動とと もに移動させる移動処理手 段を備えるものである。
この発明は、 前記背景画像は円筒形あるいは球形をなすものである。
この発明は、 さらに、 生成された前記視点画像を表示する表示手段を備える も のである。
この発明は、 三次元空間座標上を前記移動体で移動しながらゲームを行うゲー ム装置であって、 前記いずれかの画像処理装置を備えるものである。
この発明は、 三次元空間座標上に構成された移動体を移動させると と もに、 こ の移動体の位置の視点から見た視点画像を生成する画像処理方法において、 前記移動体の移動量を求める第 1 のステ ッ プと、
前記移動量に基づき、 遠方の背景を表す背景画像を移動させる第 2のステ ッ プ とを備えるものである。
この発明では、 所定の画面を、 視点の移動に応じて移動させるので、 視点が移 動しても、 無限遠あるいは距離の関係ない物体等を正しく表示することができ、 より現実に近い表現ができる。 また、 ゲーム展開に関して効果的な画像処理が可 能になる.。
また、 この発明では、 所定の画面を円筒あるいは球状位置に配置し、 その中心 に視点を配置し、 視点の移動に伴って当該中心を移動させるこ とができるので、 無限遠あるいは距.離の関係ない物体等を正しく表示することができる。
この発明は、 三次元空間座標上に構成された移動体を移動させるとともに、 こ の移動体の位置の視点から見た視点画像をポ リ ゴンを用いて生成する画像処理装 置において、
前記視点画像を構成するポリ ゴンを複数に分類し、 各分類毎にポ リ ゴンの表示 個数が予め定められた最大表示個数以下となるように、 ポ リ ゴンの表示個数を制 御するポ リ ゴン数制御手段を備えるものであ る。
こ の発明は、 前記ポ リ ゴン数制御手段は、 前記視点画像を構成するポリ ゴンを、 少なく と も背景を表すボリ ゴンおよびその他のポリ ゴンに分類する ものである。 この発明は、 さ らに、 生成された前記視点画像を表示する表示手段を備える も のである。 · .
この発明は、 三次元空間座標上を前記移動体で移動しながらゲームを行うゲ一 ム装置であって、 前記いずれかの画像処理装置を備えるものである。
この発明は、 三次元空間座標上に構成された移動体を移動させるとともに、 こ の移動体の位置の視点から見た視点画像をポリ ゴンを用いて生成する画像処理方 法において、
前記視点画像を構成するポ リ ゴンを複数に分類し、 前記各分類毎にポリ ゴンの 表示個数の最大表示個数を定める第 1 のス テ ッ プと、
前記最大表示個数を超えない範囲において前記各分類毎にポ リ ゴンの表示個数 を制御する第 2のステップとを備えるものである。
この発明によれば、 移動表示体以外の他の画面を複数の種類に分け、 各画面に 割り当てるポ リ ゴン数を個別に制限し、 各画面を当該制限内で構成している。 し たがって、 例えば、 エネ ミーが数多く 出現したような場合であっても、 背景画像 のポ リ ゴンが欠落する こ と はない。
この発明は、 三次元空間座標上に構成された移動体を移動させるとともに、 こ の移動体の位置の視点から見た視点画像を生成する画像処理装置において、 前記視点画像の視野を移動方向の状況に応じて変更する視野変更手段を備える ものである。
この発明は、 前記視野変更手段は、 前記移動体の前方に物体がないときは視野 を広く し、 物体があるときは視野を狭くするものである。
この発明は、 さらに、 生成された前記視点画像を表示する表示手段を備える も のである。'
この発明は、 三次元空間座標上を前記移動体で移動しながらゲームを行うゲー ム装置であつて、 前記いずれかの画像処理装置を備える ものである。
この発明は、 三次元空間座標上に構成された移動体を移動ざせるとともに、 こ の移動体の位置の視点から見た視点画像を生成する画像処理方法において、 前記移動体の前方の物体の状況を調べる第 1 のステ ッ プと、
物体がないときに視野を広く し、 物体があるときに視野を狭くする第 2 のステ ップとを備える ものである。
この発明によれば、 移動体の前方の状況に応じて視野を変化させるので、 自然 な画像を得ることができる。 例えば、 キャ ラ ク タを乗せた ト ロ ッ コが原野を走つ ているときは視野を広くするこ とによ り広大な感じが得られる し、 ト ンネルの中 を走っているときは視野を狭くすることにより閉塞感が得られる。 また、 例えば 市街地を走る と きはこれらの中間と考えて中間の視野にする こ とにより、 臨場 感 ' ス ピー ド感が得られる。
この発明は、 前記いずれかの方法を処理装置に実行させる手順が記憶される記 憶媒体である。 記憶媒体には、 例えば、 フロ ッ ピ一ディ スク、 磁気テープ、 光磁 '気ディ スク、 C D—■ R 0 M、 D V D s R 0 ·Μ力一 'ト リ ッ ジ、 バッ'.テ リ バッ ク ア ツ ' プ付きの R A Μあるいはフ ラ ッ シュ メ モ リを備えるカー ト リ ッ ジ、 不揮発性 R A Mカー ト リ ッ ジ等を含む。 記憶媒体とは、 何等かの物理的手段により情報 (主に デジタルデータ、 プログラム) が記録されている ものであって、 コ ン ピュータ、 専用プロセッサ等の処理装置に所定の機能を行わせることができるものである。 図面の簡単な説明
図 1 は、 本発明の画像処理装置の外観を示す斜視図である。
図 2 は、 同実施例のブロ ッ ク図である。
図 3 は、 同実施例のカ メ ラ ワークの動作を示すフ ローチャー トである。
図 4 は、 同実施例の動作の説明図である。 図 5 は、 同実施例の動作の説明図である。
図 6 は、 同他の実施例の滑らかな視角を得る動作のフ ローチ ャ ー トである。 図 7 は、 同動作の説明図である。
図 8は、 同動作の説明図である。
図 9 は、 同動作の説明図である。
図 1 0 は、 同動作の説明図である。
図 Γ 1 は、 同他の実施例における川の流れの作成動作のフローチャー トである。 図 1 2 は、 同動作の説明図である。
図 1 3 は、 同動作の説明図である。
図 1 4は、 同動作の説明図である。
図 1 5 は、 同他の実施例における背景等の移動動作のフローチ ャ ー トである。 図 1 6 は、 同軌作の説明図である。
図 1 7 は、 同動作の説明図である。
図 1 &は、 同他の実施例におけるポ リ ゴン制限に関する動作のフ ローチ ャー ト である。
図 1 9 は、 同動作の説明図である。
図 2 0 は、 同動作の説明図である。
図 2 1 は、 同他の実施例における視野角に関する動作のフ ローチ ャー トである。 図 2 2は、 従来の視角処理の説明図である。
図 2 3 は、 カ メ ラ の向きと視野の説明図である。
図 2 4は、 従来の視角処理によって得られる視野の説明図である。
図 2 5 は、 従来の川の流れを説明するための図である。
図 2 6 は、 従来の川の流れを説明するための図である。
図 2 7 は、 従来の背景の移動の説明図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について、 図 1 〜図 5 に基づき説明する。 図 1 に、 こ のゲーム装置の外観を示す。 こ の図において、 符号 1 は、 ゲーム装置本体を示 している。 このゲーム装置本体 1 は箱状の形状をしている。 このゲーム装置本体 1 には、 表示手段と しての C R T、 プロ ジヱ ク タ、 液晶表示装置、 ブラ ズマディ ス プレイ等を備えるディ スプレイ 1 aが設けられている。 こ のデ ィ ス プ レイ 1 a の下部の前面には、 操作パネル 2が設けられている。
前記ディ ス プレイ 1 aの横にはス ピー力取付孔 (図示せず) が設けられており、 これら孔の内部にはス ピーカ 1 4が設けられている。
こ のゲーム装置本体 1 の内部には、 ゲーム処理ボー ド 1 0が設けられている。 なお、 ディ ス プレイ 1 a、 操作パネル 2の操作装置 1 1 、 及びス ピー力 1 4 はゲ 一ム処理ボ一ド 1 0 に接続されている。 このよ うな構造と したこ と によ り 、 遊技 者は、 ディ ス プレイ 1 a及び操作パネル 2の操作装置 1 1 を使用してゲームを楽 しむこ とができる。
こ の操作パネ ル 2 に設けられた操作装置 1 1 は、 ジ ョ イ ス テ ッ ク 2 a と、 押ボ タ ン 2 b と力 ら構成されている。 このジョ イ ステツ イ ク 2 a及びボタ ン 2 bによ つ て、 遊技者はキ ャ ラ ク タ を操作でき る。
図 2 は、 同実施例のデータ処理装置が適用されたゲーム装置を示すプロ ッ ク図 である。 こ のゲーム装置は、 ディ ス プレイ 1 a、 操作パネル 2 に配置された操作 装置 1 1 、 ゲーム処理ボー ド 1 0、 及びス ピーカ 1 4からなる。
この操作装置 1 1 のジョ イ ステッ ク 2 a と、 押ボタ ン 2 b とから入力された操 作信号はゲーム処理ボ一 ド 1 0 に入力される。 ディ ス プレイ 1 aは例えば 「デル チ ヱ ー ス I 上 と同様なゲ—ムの画像を表示する もので、 こ のディ ス プレイ 1 a の 代わり にプロ ジヱ ク タを使ってもよい。
ゲーム処理ボー ド 1 0 は、 C P U (中央演算処理装置) 1 0 1 を有すると と も に、 R O M 1 0 2 R AM I 0 3、 サ ウ ン ド装置 1 0 4 A P (増幅器) 1 0 5、 入出力ィ ンターフヱ一ス 1 0 6、 ス ク ロールデータ演算装置 1 0 7、 コ · プ 口 セ ッ サ (補助演算処理装置) 1 0 8、 図形デ— 夕 R O M 1 0 9、 ジォ メ タ ラ イ ザ 1 1 0、 モー シ ョ ンデー タ . R O M 1 1 1 、 描画装置 1 1 2、 テ ク ス チ ャ デー タ R O M 1 1 3、 テ ク スチ ャ マ ッ プ R AM 1 1 4、 フ レーム -ッ フ ァ 1 1 5 、 画像 合成装置 1 1 6 D./A変換器 1 1 7を備えている。
C P U 1 0 1 は、 'ス ラ イ ンを介して、 所定のプロ グラ ムや画像処理プ口 グラ ムなどを記憶した Rひ M 1 0 2、 データを記憶する R A M 1 0 3、 サ ウ ン ド装置 1 0 4 、 入出力イ ンターフェース 1 0 6 、 ス ク ロールデータ演算装置 1 0 7 、 コ · プロセ ッサ 1 0 8 、 及びジォメ タ ライザ 1 1 0 に接続されている。 R A M I 0 3 はバッ フ ァ用と して機能させる もので、 ジォメ タ ラ ィザに対する各種コマ ン ドの書込み (才ブジェ ク 卜の表示など) 、 各種演算時の必要なデータの書込みな どが行われる。
入出力ィ ンタ一フ ユ一ス 1 0 6 は前記操作装置 1 1 に接続されており、 これに よ り操作装置 1 1 ©ジョ ィ ステ ッ ク 2 a等の操作信号がデジタル量と して C P U 1 0 1 に取り込まれる。 サゥ ン ド装置 1 0 4 は電力増幅器 1 0 5 を介してス ピー 力 1 4 に接続されており、 サゥ ン ド装置 1 0 4で生成された音響信号が電力増幅 の後、 ス ピーカ 1 4 に与えられる。
C P U 1 0 1 は、 この実施の形態では、 R 0 M 1 0 2 に内蔵したプロ グラ ムに 基づいて操作装置 1 1 からの操作信号及び図形データ R O M 1 0 9 からの図形デ 一夕、 またはモー シ ョ ンデータ R 0 M l 1 1 からのモー シ ョ ンデータ ( 「自己、 エネ ミ ー等のキャ ラ ク タ」 、 及び、 「移動路、 地形、 空、 各種構造物等の背景」 等の三次元データ) を読み込んで、 挙動計算 ( シ ミ ュ レー シ ョ ン) 、 及び特殊効 果の計算を少な く と も行う よ うになっている。
挙動計算は、 操作装置 1 1 からの遊技者の操作信号によ り仮想空間でのキヤ ラ クタの動きをシ ミ ユ レ一 トする もので、 三次元空間での座標値が決定された後、 この座標値を視野座標系に変換するための変換マ ト リ クスと、 形状データ (ポ リ ゴンデータ) と'がジォメ タ ライザ 1 1 0 に指定される。 ' コ · プロセッサ 1 0 8 に は図形デ―タ R O M 1 0 9 が接続され、 したがつて、 予め定めた図形デ— 夕力; コ . プロセッサ .1 0 8 (及'び .C P U 1 · 0 · 1 ) に渡される。 コ ' プロセッサ 1 0 8 は、 主に、 浮動小数点の演算を引き受けるよ うになつている。 この結果、 コ · プ 口セッサ ί 0 8 によ り各種の判定が実行されて、 その判定結果が C P U 1 0 1 に 与えられるよう にされているから、 C P Uの計算負荷を低減できる。
ジオメ 夕 ラ イザ 1 1 0 はモー シ ョ ンデ― タ R 0 Μ 1 1 1 及び描画装置 1 1 2 に 接続されている。 モー シ ョ ンデ― タ R 0 Μ 1 1 1 には、 既述のよ う に予め複数の ポ リ ゴンからなる形状データ (各頂点から成るキャ ラ ク タ、 地形、 背景などの三 次元データ) が記憶されており、 この形状デ—タがジオメ ダラ イザ 1 1 0 に渡さ れる。 ジォメ タ ライザ 1 1 0 は C P U 1 0 1 から送られてく る変換マ ト リ ク スで 指定された形状デ-タを透視変換し、 三次元仮想空間での座標系から視野座標系 に変換したデータを得る。 描画装置 1 1 2 は変換した視野座標系の形状デー夕に テク スチャを貼り合わせフ レーム ' ッ フ ァ 1 1 5 に出力する。 このテク スチ ャの 貼り付けを行うため、 描画装置 1 1 2 はテク スチャデータ R 0 M 1 1 3及びテク スチヤマ ッ プ R A M 1 1 4 に接続されると.と もに、 ブレーム ッ フ ァ 1 1 5 に接 続されている。 なお、 ポ リ ゴンデータ とは、 複数の頂点の集台からなるポ リ ゴン (多角形 : 主と して 3角形又は 4角形) の各頂点の相対ないしは絶対座標のデ一 夕群をいう。 前記図形データ R 0 M 1 0 9 には、 所定の判定を実行する上で足り る、 比較的粗く設定されたポリ ゴンのデータが格納されている。 これに対して、 モー ショ ンデータ R 0 M 1 1 1 には、 キャラクタ、 ト ロ ッ コ、 背景等の画面を構 成する形状に関して、 より緻密に設定されたポ リ ゴンのデータが格納されている。
ス ク ロ ールデ―タ演算装置 1 0 7 は文字などのス ク D — ル画面のデ—タ ( R 0 M 1 0 2 に格納されている) を演算する もので、 この演算装置 1 0 7 の出力信号 と前記フ レー ムバ ッ フ ァ 1 1 5 の出力信号とが画像台成装置 1 1 6 によ り合成さ れ、 この合成信号は、 さらに D / A変換器 1 1 7 によりデジタル信号からアナ口 グ信号に変換されてディ スプレイ 1 a に入力される。 これによ り、 フ レー ムバッ ファ 1 1 5 に一時記憶されたキャ ラクタ、 ト ロ ッ コ、 地形 (背景) などのポ リ ゴ ン画面 ( シ ミ ュ レ一 シ ョ ン結果) と必要な文字情報のスク ロール.画面とが指定さ れたプラ イ オ リ テ ィ にしたがって合成され、 最終的なフ レー ム画像デ—夕が生成 される。 この画像データは D / A変換器 1 1 7 でアナ口 グ信号に変換されてディ スプレイ 1 a に送られ、 ゲームの画像がリ アルタイ ムに表示される。
<地図 (面状体) の表示処理 >
次に、 文字や図形等の付された面状体 (地図) を三次元空間座標上に表示する 動作について図 3〜図 5を参照して説明する。
図 3 は同動作を説明するフ ロ ーチ ヤ 一 トである。 図 4及び図 5 は同動作の説明 図である。
この実施の形態のゲー ム装置において、 主人公のキヤ ラクタが ト 口 ッ コに乗つ て移動する場面がある。 図 4及び図 5 はこの場面を例にとった説明図である。 図 4 において、 ト 口 ッ コ 2 0が線路 2 1 の上を背景 2 3 の方向に走行している。 この状態は、 ト ロ ッ ュ 2 0を停止状態にし、 背景 2 3等が図示矢印のように迫つ てく るものと して扱ってもよい。 ト ロ ッ コ 2 0 にはキャ ラ クタ 2 4 ( 2 5 ) が乗 つている。 キャ ラ ク タ 2 4 ( 2 5 ) は地図 2 6 を広げている。 図 4 においてキヤ ラクタ 2 4 ( 2 5 ) ¾ぐるつと回る曲線は後述の力メ ラの視点の座標が動く とき の軌跡である。 この曲線上には 6 つの点が存在し、 それぞれ 「 1 」 「 2」 「 3」 「 4」 .「 5 」 「 6 」 の符合が付されている。 この数字の順番にカ メ ラ の視点が移 動する。 すなわち、 キャ ラ クタ 2 4 ( 2 5 ) を中心と して下から上へ行き、 さ ら に下.に向かう。 図 4 においてかメ ラの視点の移動方向は左回りである。
図 5 において、 6つの画面が示されている。 これら画面はそれぞれ図 5 ( a ) 、 ( ) 、 ( c ) 、 ( d ) 、 ( e ) 、 ( f ) である。 この順番で画面は変わってい く。 また、 これら図 5 ( a ) 〜 ( f ) は、 それぞれ図 4のカメ ラの視点 1 ~ 6 に おいて撮影された画像に相当する。
図 5 ( a ) は、 ト ロ ッ コ 1 の先端をカメ ラの視点 1 と した状態で描かれたもの であり、 ト ロ ッ コ 1 が進む方向の線路 2 1 、 地面 2 2、 山等の背景 2 3が映し出 されている。 このカ メ ラの視点 1 ではキャ ラ ク タ 2 4 ( 2 5 ) は映らない。
図 5 ( b ) は、 キャ ラ ク タ 2 4 ( 2 5 ) の後ろをカ メ ラの視点 2 と した状態で 描かれたものであり、 線路 2 1等に加えてキャ ラ ク タ 2 4 ( 2 5 ) も映っている。 図 5 ( c ) は、 キャ ラ ク タ 2 4 ( 2 5 ) の後ろ上方をカメ ラの視点 3 と した状 態で描かれたものであり、 線路 2 1 を走つていく ト ロ ッ コ 2 0 の全景が映つてい る。
図 5 ( d ) は、 視点 3から少し前に移動した視点 4 を基準に描かれたものであ り、 キャ ラ ク タ 2 4 ( 2 5 ) が地図 2 6を広げているのがわかる。
図 5 ( e ) は、 視点 4からさ らに前に、 かつ、 下方に移動した視点 5 を基準に 描かれたものであり、 地図 2 6がさらに拡大表示されている c
図 5 ( f ) は、 さらに地図 2 6 に近づいた視点 6を基準に描かれたものであり、 画面全体に地図 2 6が現されている。
次に図 3 のフ ローチャー トに基づき動作について説明する。
まず、 C P U 1 0 1 は、 R 0 M 1 0 2 に内蔵しているプロ グラ ムに従ってゲー ムの展開処理を実行している (ス テ ッ プ 3 0 1 、 ス テ ッ プ 3 0 2 ; N 0 ) 次に、 C P U 1 0 1 はゲームの処理が終了して 1 ス テ一ジが終了したと判定す る と (ス テ ッ プ 3 0 2 ; Y E S ) 、 視点移動制御のス テ ッ プに移行する。 視点の 座標が所定値以内であるとは、 例えば、 あるス テージをク リ ア した結果、 キ ャ ラ ク夕がゲーム上で定義された位置まで進むような場合である。 物語的に言えば、 キ ャ ラ ク タ がさまざまな危機を乗り越えて難所を突破し、 再び ト 口 ッ コに乗り込 み移動するような場合である。 いわば場面転換の場合である。
まず、 C P U 1 0 1 は、 カ メ ラの最初の視点の座標を R 0 M 1 0 2から取り出 して R AM 1 0 3 の所定のエ リ アに格納する (ス テ ッ プ 3 0 3 ) 。
ついで、 C P U 1 0 1 は、 R AM I 0 3 に記憶した最初の視点の座標を基にキ ャ ラ ク タ や背景等の表示データ を画像処理する ( ス テ ッ プ 3 0 4 ) 。
次に、 C P U 1 0 1 は、 R O M 1 0 2内に記憶された視点の座標が所定値以内 であるときには (ステップ 3 0 5 ; Y E S ) 、 地図を折り畳んだ状態で表示する 画像処理を行う ·'(ス テ ッ プ 3 0 6 ) 。 .このス テ .ップ 3 0 6の処理の結果、 図 4 に 示すように、 カ メ ラの視点の座標はキ ャ ラ ク タ 2 5 ( 2 6 ) の前面に位置する視 点 「 1 」 になる。 また、 この視点 「 1」 から見た表示画面は、 図 5 ( a ) に示す よ う に、 ト ロ ッ コ 2 0の先端部分と、 線路 2 1 や地面 2 2や背景 2 3から構成さ "れる。 そして、'' これら力 ϊディ ス プレイ 1 a上に表示される。
そ して、 C P U 1 0 1 は、 カ メ ラ の最終座標位置に達したか否かを判定する ( ス テ ッ プ 3 0 7 ) 。 こ の場合には、 当然達 していないので ( ス テ ッ プ 3 0 7 ; N O) 、 R A M 1 0 3の所定のェ リァに格納されているカメ ラの視点の座標を更 新し (ス テ ッ プ 3 0 8 ) 、 再び、 ス テ ッ プ 3 0 4の処理に移行する。
こ のよ う な処理 ( ス テ ッ プ 3 0 4〜 3 0 8 ) を繰り返してい く と、 カ メ ラ の視 点の座標が、 図 4 に示すように、 キ ャ ラ ク タ 2 4 ( 2 5 ) の後面に位置する視点 「 2」 になる。 この視点 ( 「 2」 ) から見た表示画面は、 図 5 ( b ) に示すよ う に、 ト ロ ッ コ 2 0 と、 これに乗ったキ ャ ラ ク タ 2 4 ( 2 5 ) と、 線路 2 1 や地面 2 2や背景 2 3 とから構成される。 そ丄て、 これらがディ ス プ レ イ 1 a に表示さ れる。
こ のよ う な処理 ( ス テ ッ プ 3 0 4〜 3 0 8 ) を さ らに繰り返してい く と 、 カ メ ラの視点の座標が、 図 4 に示すよ う に、 キ ャ ラ ク タ 2 4 ( 2 5 ) の後面のはるか 上に位置する視点 「 3」 になる。 この視点 ( 「 3」 ) から見た表示画面は、 図 5 ( c ) に示すよ う に、 ロ ッ コ 2 0 と、 これに乗ったキ ャ ラ ク タ 2 4 ( 2 5 ) と、 線路 2 1 や地面 2 2 とから構成される。 そ して、 これらは、 上空から見た様な状 態で、 ディ ス プレイ 1 a に表示され.る。 · .
なお、 このよ うな処理 (ステ ッ プ 3 0 4〜 3 0 8 ) を繰り返していぐ途中で、 カ メ ラの視点の座標が、 図 4 の 「 4」 に達する前に、 R A M 1 0 3 の所定のェ リ ァに格納された視点の座標が所定値を超えたと C P U 1 0 1 によ って判断された ものとする (ス テ ッ プ 3 0 5 ; N 0 ) 。 すると、 C P U 1 0 1 は、 地図 2 6 を折 り畳んだ状態から徐々に広げるよ う に表示される画像処理を実行する (ステ ッ プ 3 0 9 ) 。 こ の処理は、 例えば、 地図を構成するポ リ ゴンの座標の 2点を共通に し、 他の各 2点をこのステ ッ プを通過する毎に更新するよ うな画像処理を行って いる。 これによつて、 本状になっている地図が、 閉じられた状態から徐々に開か れた状態に表示される。 したがって、 このス テ ッ プを通過する毎に、 本のよ う に なつている地図が開かれていき、 完全に開いた状態に達したと こ ろで、 以後ポ リ ゴンの座標の更新を行わないよ う になっている。
同様に、 こ のよ う な処理 ( ステ ッ プ 3 0 4 ~ 3 0 5、 3 0 9、 3 0 7、 3 0 8 ) を繰り返していく と、 カ メ ラの視点の座標が、 図 4 に示すよ う に、 キ ャ ラ ク タ 2 4 ( 2 5 ) の後面の斜め上に位置す る視点 「 4 」 に達す る。 こ の視点 ( 「 4 」 ) から見た表示画面は、 図 5 ( d ) に示すよ う に、 拡大された ト ロ ッ コ 2 0 と、 これに乗ったキ ヤ ラグ夕 2 4 ( 2 5 ) の上半身と、 これら上半身の間か ら見える開かれた地図 2 6 と、 線路 2 1 や地面 2 2 や背景 2 3 とから構成される。 そ ·して、. これらがディ スプ ·レイ 1 a に表示される。
'再び、 ス 'テ ツ プ 3 0 4 ~ 3 0 5、 3 0 9、■ 3 0 7、 3 0 8 の処理を C P U 1 0 1 が繰り返してい く と、 カ メ ラ の視点の座標が、 図 4 に示すよ う にキ ャ ラ ク タ 2 4 ( 2 5 ) の真上に位置する視点 「 5」 に達する。 こ の視点 ( 「 5 」 ) から見た 表示画面は、 図 5 ( e ) に示すよ う に、 トロ ッ コ 2 0 の一部と、 これに乗った牛 ャ ラ ク タ 2 4 ( 2 5 ) の拡大上半身と、 拡大上半身の間から見える拡大された地 図 2 6 とから構成される。 そ して、 これらがディ ス プレイ 1 a に表示される。 さ らに、 ス テ ツ プ 3 0 4 〜 3 0 5 、 3 0 9 、 3 0 7 、 3 0 8 の処理を C P U 1 0 1 が繰り返してい く と、 カ メ ラ の視点の座標が、 図 4 に示すよ う に、 キ ャ ラ ク タ 2 4 ( 2 5 ) の前面に位置する視点 「 6」 に達する。 この視点 ( 「 6 」 ) から 見た表示画面は、 図 5 ( f ) に示すよ う に、 完全にデイ ス プレィ l a の画面一杯 に拡大された状態の地図 2 6 そのものから構成される。 そ して、 これらがデイ ス プレイ 1 a に表示される。 この場合、 C P U 1 0 1 は、 視点座標が最終値に達し たと判断し (ステ ッ プ 3 0 7 ; Y E S ) 、 前記地図 2 6 を見ながら次のス テー ジ の前処理を実行し (ス テ ッ プ 3 1 0 ) 、 再び、 ゲ一ム処理に移行する (ス テ ッ プ 3 0 1 ) o
と こ ろで、 遊技者が必要とする図、 文字、 数値等の情報がポ リ ゴンで構成され る地図 2 6 に書き込まれている。 したがって、 遊技者は必要な情報を得るために 特別の地図を表示させる必要もない。 ゲーム画面上のキャ ラ ク タに地図を広げさ せるこ と によ り必要な情報を得る こ とができ る。 従来はコ マ ン ドで、 あるいは自 · 動的に必要な地図を、 ゲーム画面に代えて別画面表示体と して表示させていた。 以上のよ うに、 この発明の実施の形態によれば、 地図 2 6 をゲーム画面上のキ ャ ラ ク タに広げさせるという動作をさせる とと もに、 こ の地図 2 6 をカ メ ラ ワ一 ク (視点の移動) による 「のぞき込む」 という状態でディ ス プレイ 1 a に表示す るので、 画面を切り換えて表示する こ とを避け、 ゲームの流れの中断を防止でき る。 すなわち、 ゲーム空間内のォブジヱ ク 卜 に、 遊技者の状態、 .ゲーム全体での 立場など遊技者が必要とする情報を書き込み、 カ メ ラ ワ ー クを利用して、 その情 報をゲーム内のキ ャ ラ ク タ 2 4 ( 2 5 ) との関連で表示する ごとによ り、 必要な 情報の提供とゲーム画面の継続を同時に実現する こ とができ る。 こ の こ と によ り 遊技者はゲームをプレイ中である という意識を起こすこ とな く 、 あたかもキ ャ ラ ク 夕と一体となって冒険しているよ うな気持ちになり、 ゲームに対する没入感が 増すこ と になる。
なお、 カ メ ラ視点の位置はキ ャ ラ ク タ の回りを一周回る必要はな く 、 例えば、 地図 2 6 の表示は、 例えば、 視点 「 5」 の部分で停止するよ う にしてもよい。 ま た、 カ メ ラ視点の位置は、 図 4 の点 1 〜 6 を順々にたどってもよいし、 こ の逆の 順序でたどって もよいし、 あるいはばらばらの順番でたどってもよい。 また、 力 メ ラ視点の位置はこれらの点の間を連続的に動いていってもよいし、 点 1 ~ 6 の 点上のみを移動してもよい。 また、 カ メ ラ視点の位置は、 図 4 のよ う に垂直面内 を動いていってもよいし、 あるいは水平面内を動いていってもよい。 また、 映画 の撮影の際のようにカメラを左右あるいは上下にゆつ く り振つてパンしたり、 ズ —ムしたり しでもよい。 要するに、 ゲーム画面を中断することなく 、 連続的に必 要な地図、 説明文、 図表等の情報源に画面表示を徐々に切り替えるようにすれば よい。 そのときに周囲の風景やキ ヤ ラクタを含めて表示するようにしてもよい。 上記説明において、 ト ロ ッ コの走行シー ンを例にと り説明したが、 こ のよ う な 移動のシー ンに限らないのは言うまでもない。 ■(也にも、 ス テージをク リアしたと きとか、 休憩をとるときとか、 装備を選択するときにも適用できる。 要するに、 画面転換あるいは一時的な中断を必要とするいかなるシー ンにも適用できる。 ぐ視点決定の動作〉 ' 次に、 図 6〜図 1 0を参照してこ のゲーム装置における視線決定の動作につい て説明する。
こ こで、 図 6 は同動作のフ ロ ーチ ャ ー ト である。
図 7〜図 9 は同動作の説明図である。
図 1 0 はカーブの曲率に応じて視線決定の取り方を説明するための図である。 以下の説明は上記の場合と同じように、 キ ャ ラ ク タ力; ト ロ ッ コ 2 0 に乗って移 動している場合を例にとり説明する。 図 6 に示すフローチ ヤ一卜は、 C P U 1 0 1 がゲームのプロ グラ ム 処理している途中で、 主人公のキ ャ ラ ク タ の乗った ト ロ ッ コ 2 0がカーブに差しかかったときに入るものとする。
• こ.のフローチ ャー トに入ると、 C . P U 1 0 , 1 .は'、 ト ロ ッ コ 2 0の現在のボイ'ン ト q 2 0の座標を取り込む (ス テ ッ プ 4 0 1 ) 。 すなわち、 図 7 ( a ) に示すよ うに、 ト ロ ッ コ 2 0の現在のポイ ン ト q 2 0の座標 ( X , Υ , Z ) が C P U 1 0 1 に取り込まれる。
次に、 C P U 1 0 1 は、 予め定められた距離設定値ひに従って、 ト ロ ッ コ 2 0 の現在の座標から距離設定値 αだけ離れた、 軌道上の前側のボイ ン ト Q 2 1 の座 標を取り込む ( ステップ 4 0 2 ) 。 ここに、 符号 αはト ロ ツ コ 2 0 の現在のポィ ン トに対して前後所定距離離れたボイ ン トの座標を得るための距離設定値であり、 例えば R A M 1 0 3 の所定のェ リ ァに格納されている。 そして、 C P U 1 0 1 は この距離設定値 αを基に ト ロ ッ コ 2 0の前後の座標を取り込む。
次に、 C P U 1 0 1 は、 前記距離設定値 を用いて、 ト ロ ッ コ 2 0 の現在の座 標の後ろ側に距離設定値 αだけ離れたボイ ン ト q 2 2の座標を取り込む ( ス テ ッ プ 4 0 3 ) 。 これによ り、 ト ロ ッ コ 2 0 の現在の座標の前後等距離のポイ ン ト (位置) q 2 1、 q 2 2 の座標が取り込まれたこ とになる。
次に、 C P U 1 0 1 は、 ステ ッ プ 4 0 2、 4 0 3で得た各座標を直線で結ぶ計 算処理を行う (ステ ッ プ 4 0 4 ) 。 これは、 図 7 ( b ) に示すよ う に、 ポイ ン ト q 2 1 とポイ ン ト q 2 2 とを直線 Nで結んだ処理を行ったこ とに相当する。
と ころで、 ポイ ン ト q 2 1、 q 2 2 の座標は既知であるから、 C P U 1 0 1 は、 前記ステ ッ プ 4 0 4 の計算で直線 Nの長さを求めるこ とができる。 この直線 Nの 長さからカーブの角度を判定することができる。 例えば、 図 8 ( a ) に示すよう に、 カーブの角度が鈍角である場台には、 ポイ ン ト q 2 1, q 2 2の間の直線 N a は大き く なる。 ちなみにポイ ン ト q 2 0、 q 2 1、 q 2 2が直線上にあると き に直線 N aの長さは最大値 2 αをとる。 一方、 図 8 ( b ) に示すように、 カーブ の角度が鋭角に近く なればなる程、 ボイ ン ト q 2 1, q 2 2を結ぶ直線 N bは小 さ く なる。 つま り、 6» a > 0 bのとき N a 〉 N bである。 なお、 0 = 9 0 ° のと きの直線の長さ N ( 9 0 ° ) は予め計算できるから ( Ν 2 = 2 α 2 ) 、 この Ν ( 9 0。 ) を基準と して鈍角か、 鋭角かを判定できる。
そこで、 C P U 1 0 1 は、 ステップ 4 0 4で得た直線の距離 Νの値を判定する (ステ ッ プ 4 0 5 ) 。 こ こで、 図 8 ( a ) に示すよ う に、 直線 N aが長いときに、 C P U 1 0 1 は、 ガープの角度が鈍角であると して距離設定値 αを標準値に設定 し、 R A Μ 1 0 3 に格納する (ステッ プ 4 0 7 ) 。 一方、 図 8 ( b ) に示すよ う に、 直線 N aが短いときに、 C P U 1 0 1 は、 カーブの角度が鋭角であると して 距離設定値 αを小さい値に設定し、 R A M I 0 3 に格納する (ステ ッ プ 4 0 6 ) 。 このよ う に力一ブの角度が鋭角か、 鈍角かに応じて距離設定値な を切り替えるの は、 ト ロ ッ コ 2 0 の線路 2 1 が急にカーブしている場所でも、 カーブに沿つて自 然にカメ ラの向きを変えるようにするためである。
そして、 C P U 1 0 1 は、 前記ステ ッ プ 4 0 4で求めた直線 Nを図 7 ( b ) の よう に平行移動して現在のポイ ン ト q 2 0 に適用し、 これをカ メ ラの向き F と し て例えば R A M 1 0 3 の所定のェ リ ァに格納する (ステ ッ プ 4 0 8 ) 。
これらの処理ステッ プ 4 0 1〜 4 0 8 を繰り返すこ とによ り、 カーブに沿つて 滑らかにカ メ ラ視線を変える こ とが可能である。 例えば、 図 9 に示すよ う に、 ポ イ ン ト q 1 0 におけるカ メ ラの向き F 1 0で、 視野が G 1 0 となる。 また、 ボイ ン ト q 2 0 ではポイ ン ト q 2 1 , q 2 2からカ メ ラの向きを F 2 0 と し、 視野が G 2 0 となる。 また、 ポイ ン ト q 3 0 ではポイ ン ト q 3 1, q 3 2 力 らカ メ ラ の 向きを F 3 0 と し、 視野が G 3 0 となる。 図 9 から明らかなよ う に、 視野が互い にその一部を重ねあわせながら変わって行く 。 ちなみに、 図 2 4 の従来の場台で は視野の重複部分はほとんどな く 、 ボイ ン トが変わるたびに表示される画面が大 き く振られていた。 この実施の形態の処理によれば図 9 のよ う に視野 Gが滑らカ に推移してゆ く こ とが分かる。
なお、 角度に応じて距離設定値 αを可変しているので、 例えば図 1 0 ( a ) に 示すよう に、 緩やかな力一ブのと きには距離設定値 αの間隔を大き ぐと り、 図 1 0 ( b ) に示すよ う に、 急なカーブのと きには距離設定値 αの間隔を小さ く とる こ とができる。 直線 Νの計算を何回く り返すかに関しては、 図 1 0 ( a ) の場合 は比較的少な く 、 図 1 0 ( b ) の場合は比較的多い。 したがって、 角度に応じて 距離設定値 α を可変する こ とによ り、 C P U 1 0 1 の負担を軽減しつつ最適な処 理が可能になる。
なお、 距離設定値 αを小さ くすればするほど力一ブによ り忠実にカ メ ラ視線を 定める こ とができ るが、 C P U 1 0 1 の負担は大き く なる。 一方、 αを大き く す ればするほどカ メ ラ視線の動きは滑らかでな く なる ものの、 C P U 1 0 1 の負担 は小さ く なる。 したがつて、 実際に αを定めるにあたっては、 これら 2 つの条件 を勘案して定める。 予め最も急なカーブがわかっているなら、 このカーブを基準 に不自然でない最少の αを定め、 カーブがゆる く なるに従って徐々に を大き く していく 。 例えば、 一定の増分 Δ αを定めておき、 カーブの半径が増えるに伴い η . Δ α ( η は整数) を加算するよ う すればよい。 なお、 αを非常に小さ く す れば、 ある一点 (例えばボイ ン ト q 2 0 ) における曲線の接線の方向が得られる。 もっ と も、 デジタル処理においては曲線も連続でな く 、 離散的に表現されるから、 その間隔より小さ くする必要はない。
この実施の形態によれば、 ト ロ ッ コの前後の線路上に 2つのボイ ン トをとり、 これら 2つのボイ ン トに基づきカメ ラ視線を決定するようにしたので、 力一ブ時 に視点の移動 (カ メ ラ の向き F ) が大き く動く ことがなく 、 自然な動きを生み出 すことができる。 また、 カーブ時に感じる物体の重さの表現が可能となる。 さ ら に、 現在座標ボイ ン トの前後のボイ ン トから視点の方向を決定しているので、 視 点の進行が逆になつても対応できる。 加えて、 二つのポイ ン ト の間隔の設定が調 整可能になっているので、 視点の振り幅の調節が可能である。 また、 二つのボイ ン トを結ぶ直線 Nによりカーブの角度を判定できるので、 モ一 シ ョ ンデータに直 接反映させることができる。
なお、 上記の処理の適用は ト ロ ッ コが線路上を移動す.る場合に限られない。 例 えば、 車がカーブしたり、 飛行機が上昇あるいは下降したりする場台にも適用で きる。 また、 曲線は必ずしも滑らかである必要もなく 、 例えば、 複数の直線が接 続された線についても適用可能である。 要するに、 上記処理は、 一定の規則によ り画面表示の基準方向を定める場台に適用できる。
また、 画面表示の基準方向を定めるにあたって、 他の方法、 例えば直線を平行 移動することなく 、 直線の角度情報に基づきカ メ ラの向きを定めるよ う にして も よい。 あるいは、 曲線に対応して予め求められた方向情報 (角度情報) に基づき、 直線を求めることなく処理を行うようにしてもよい。
また、 直線 Nを算出する点は、 必ずしも、 軌道上の移動体を挟む 2点である必 要はな く 、 移動体の現在の位置情報と移動体がこれから通過する点の位置情報 (例えば、 少し前の点とずっと前の点) と しても良い。
<川の流れを表現する座標処理の動作 >
図 1 1 はこの実施の形態の川の流れを説明するためのフローチ ヤ一トである。 図 1 2はポリ ゴンと各座標の関係を説明するための説明図である。 図 1 3はテク スチ ヤ の座標系の説明図であり、 横軸に u、 縦軸に Vがとつてある。 川を表す画 像は、 u Vの各方向に連結された複数のポ リ ゴンによって表されている。 図 1 4 は、 こ の処理によって表現される川の流れを示す説明図である。
川の流れを表現するためには次のよ う にする。 図 1 2 に示されるよ う に、 複数 のポ リ ゴン P G 1、 P G 2、 …を連続に接続してなるポリ ゴン P G Mにより、 川 に相当する部分を構成する。 次に、 各ポ リ ゴン P G 1、 P G 2、 …に水の流れに 見えるテグスチ ヤをそれぞれ貼付ける。 そのテク スチ ャ座標を時間の経過に応じ て川の流れる方向に変化させる。 これにより、.川の流れを表現できる。
この実施の形態では、 図 1 2 に示すように、 各ポリ ゴン P G 1、 P G 2、 …に、 テク スチ ャ座標の基準となる曲線 (ポ リ ゴンの列方向と同数) K l, K 2, …を 用意しておく。 なお、 こ の図に示されたポ リ ゴン P G 1、 P G 2、 · · ' は縦横 に連結された複数のポ リ ゴンのうちの一部を示している。 したがって、 ポ リ ゴン P G 1 , P G 2の横方向においても、 図示されていないポ リ ゴンが連結されてい 'る。 ノ
こ こで、 川の流れを表現する処理に C P U 1 0 1 が移行したとする。 これによ り、 C P U 1 0 1 は図 1 1 のフ ローチ ャー トを処理することになる。 まず、 C P U 1 0 1 は、 各ポ リ ゴン P G 1 に用意されているテク スチ ャ座標の基準となる基 準べク トル 1 を読み込む (ステップ 5 0' 1 ) 。 基準べク トノレは、 予め定められ た川の経路 (曲線) に基づき、 横方向 (川の流れる方向に直交する方向) のポ リ ゴン列毎に定められている。 例えば、 ポリ ゴ ン P G 1 を含むポリ ゴ ン列の基準べ ク ト ル K 1 、 ポリ ' ゴ ン P .G 2を含むポ リ ゴ ン列の基準べク ル K 2がそれぞれ'決 定されている。 基準ベク トルは川の流れを示す。
次に、 C P U 1 0 Γは、 この基準べグ ト ル K 1 を使用してテク ス チ ャ座標を計 算する (ステップ 5 0 2 ) この計算は例えば次のようにする。 図 1 2のポリ ゴ ン P G 1 において、 例えば基準ベク ト ル K 1 に平行な線分を L 1, L 3 , し4 と し、 基準ベク ト ル K 1 に直交する線分を L 2, L 5, L 6 とする。 すると、 ポ リ ゴン P G 1 の頂点 p 1、 p 2、 p 3、 p 4 のテ ク スチ ャ座標は、
p 1 = ( u , V )
p 2 = ( p 1 . u + L 2 , 1 . V + L 3 )
p 3 = ( p 2 . u + L 4 , p 2 . V + L 5 )
p 4 = ( p 1 . u + L 6 , p 1 . V + L 1 )
ノから求められる。 ここで、 . ρ· 1 .■ uは p 1 の u成分を、 p i . Vは p .1 の V成分 を意味する 。 こ の変換によ り 、 テ ク ス チ ャ座標と ポ リ ゴ ン P G 1 、 P G 2、 · · · の座標とを対応づけることができる。
このような計算をした後に、 C P U 1 0 1 は、 全ポ リ ゴンを終了したか判断す る (ステ ッ プ 5 0 3 )
こ こでは、 まだ終了していないので (ステ ッ プ 5 0 3 ; N 0 ) 、 次のポ リ ゴン P Gの計算ができるように、 ポ リ ゴン P G の添字の数を更新し (ステ ッ プ 5 0 4 ) 、 再びステッ プ 5 0 1 の処理に戻る。
'このステ ッ プ 5 0 Γ〜5 0 4 の処理によって、 予め定められた基準べク ト ルに 従い各テク スチャを移動させることにより、 川の流れを表す画像を得ることがで さる
この実施の形態では、 テク スチ ャマ ッ ピングを施したポ リ ゴンで、 流れる水の ような表現を行う と きに、 図 1 4 に示すように、 ポ リ ゴン 5 1, 5 2 , …におけ るテク スチャ 6 1 , 6 2, …の密度が変化する;となく 、 かつ川の流れに沿う形 で水が流れるように表現されるので、 自然な水の流れを再現することが可能にな る。
すなわち、 川の流れに沿った基準べク トルに基づき、 テク スチ ャ座標で表現さ れたマッ ビングデータを川の流れを示すポリ ゴンへ写像することにより、 川の流 れを表現するためのテクスチャを川の流れの形状にあわせて適切に変形する こと ができる。 したがって川の流れを自然に表現することができる。
と こ ろで、■■基準ベ ク ト ル ·Κ 1 、 Κ 2 、 · · ' は、 ポ リ ゴン . P G 1 、 P G 2、 · · · ひとつひとつに対応する。 基準べク ト ルはそのポ リ ゴンにおける川の 流れの基準となる。 基準べク トルは、 例えば辺に対して垂直である線とか、 辺の 中点を結ぶ線のようにポ リ ゴンの形状から定められることもある。 また、 川の流 れる方向が予め決まつているときは、 この流れを示す曲線に基づきポ リ ゴンごと に基準べク ト ルを定めるようにしてもよい。
また、 テ ク スチ ャ座標とポ リ ゴンとの間の変換式は上記の例に限らず、 他の変 換式を用いてもよい。 例えば、 ポ リ ゴンの辺と基準べク トルとのなす角度に基づ き変換するようにしてもよい。
なお、 上記の例において川の流れを表現する場合を例にとり説明した。 この実 施の形態は他の流れを表現する場合について適用することができる。 く画面移動処理の動作〉
図 1 5は同実施の形態の画面移動処理について説明するためのフ ローチ ヤ一 ト である。 図 1 6 は同画面移動処理について説明図である。 図 1 7 は同画面移動処 理について説明図である。
この実施の形態では、 対話型コ ン ピュータグラ フ ィ ク スを使用して表示を行つ ている。 この表示に、 陰面消去のために Zバッファ法を使用する場合は、 Z方向 の表示範囲内で最大の大きさの物体を用意する。 また、 この表示に Z ソ一ト法に 使用する場合は、 他の物体と比較して十分大きな物体を用意する。
例えば、 Zバッ フ ァ法に使用した場合、 図 1 7 の ( a ) に示すよ う に、 視点 6 9 の表示範囲 Gの中では最大の物体は物体 7 1 であるので、 これを移動できるよ うにしておく。 物体 7 1 は、 例えば、 山岳、 天体とか空などの背景である。 なお-、 同図中の符号 7 2、 7 3、 7 4 . · · は、 背景の手前にある各種物体を表してい る。
まず、 C P U 1 0 1 はゲームの展開処理を実行し (ス テ ッ プ 6 0 1 ) 、 視点移 動がなければ (ステ ッ プ 6 0 2 ; N 0 ) 、 再びス テ ッ プ 6 0 1 の処理に移行する。 例えば、 このとき図 1 7 ( a ) で示される状態にある。
次に、 例えば、 図 1 7 ( b ) のよ う に、 視点 6 9が移動すると (ス テ ッ プ 6 0 2 ; Y E S ) 、 C P U 1 0 1 は移動後の現在の視点め座標を取り込む (ステップ 6 0 3 ) o
次に、 C P U 1 0 1 は、 前回取り込んでおいた以前の視点の座標を R A M 1 0 3の所定のェ リァから取り出すとともに、 今回の座標を R A M 1 0 3の所定のェ リ アに書込み、 かつ、 今回取り込んだ座標との差引計算を実行する (ス テ ッ プ 6 0 4 ) o
C P U 1 0 1 は、 この計算結果が所定の値以上でないと判断したときには ( ス テツプ 6 0 5 に N 0 ) 、 ステツプ 6 0 1 の処理に戻る。 移動距離があま り大き く ないときは遠方の物体 7 1 の見えかたがあま り変化しないからである。 こ のス テ ップ 6 0 1 のしきい値は、 物体 7 1 までの距離などに基づき遊技者に違和感を与 えない範囲で定められる。
また、 C P U 1 0 1 は、 この計算結果が所定の値以上であると判断したときに 2マ は (ステ ッ プ 6 0 5 ; Y E S ) 、 所定の物体 7 1 の座標を読み込む (ステ ッ プ 6 0 6 ) 。
ついで、 C P U 1 0 1 は、 前記計算結果を基に所定の物体 7 1 の座標を変更す る (ステ ップ 6 0 7 ) 。 例えば、 視点 6 9が物体 7 1 に対して近づいた距離と同 じ距離だけ、 物体 7 1 を遠ざけるようにする。 このとき、 図 1 7 ( b ) のよ う に 物体 7 1 と物体 7 2 とが離れ、 これらの間が不連続になることがあるが、 物体 7 1 は非常な遠景であるからさほど違和感は生じない。
そして、 C P U 1 0 1 は、 再び、 この座標を R A M I 0 3 の所定のェ リアに格 納する (ステ ッ プ 6 0 8 ) 。 その後、 C P U 1 0 1 は、 再び、 ステ ッ プ 6 0 1 の 処理に移行する。
このよ う に、 この実施の形態では、 図 1 7 ( b ) に示すように、 視点 6 9が移 動すると、 これに伴って背景 7 0 は当然のこと、 物体 7 1 も移動することになる。 したがって、 視点移動に伴う見え方の変化を防ぐことができる。
すなわち、 天体や青空などの無限遠にある物体、 巨大な物体、 光学現象といつ た距離のない物の表現を行う際でも、 違和感を生じない。 この方法は、 特に、 処 理の高速化のために、 物体の奥行きを表現するための Zバッ フ ァを整数で表現す る場合において有効である。 従来、 このよ うな場合は無限遠にある物体の奥行き 表現のための特別な処理が必要であつたが、 この実施の形態によればそのような 処理は不要になる。 したがって、 ハー ドウェア上の制約が緩和される。
なお、 図 1 6 に示すように、 星空等の表現を施した表示範囲での最大の大きさ の球 7 6を形成し、 この球 7 6 の中心に視点 6 9が位置するよ う にし、 かつ視点 の移動に伴つて当該中心を移動させるようにしてもよい。 この球 7 6の位置は、 視点 6 9 の移動とと もに変化する。 この球 7 6 の半径は、 Zバッ フ ァ法を用いた 場合は Z方向の表示範囲内で最大の大きさである。 Z ソー トを用いた場合は他の 物体と比べて十分な大きさの物体を用意し、 その物体の位置を視点の移動と同じ 距離に移動させることにより、 無限遠にある天球等の表現を行う。 また、 球 7 6 に代えて円筒形の無限遠背景画像を用いても良い。
このようにすると、 例えば視点 6 9の位置は変更しないが、 仰ぎ見たり、 振り 返ったり しても、 その向きに対応する適切な星空等の背景を常に得ることができ る。 従来はこの種の背景と して表示画面に張り付いた背景画面を容易するごとが あつたが、 この場合、 どの方向を見ても表示が変わらず不自然であった。
<ポリ ゴン数制限の説明〉
図 1 8は同実施の形態のポリ ゴン数制限の動作のフ口一チヤ一 トである。 図 1 9 は同実施の形態の説明図である。 図 2 0 は、 同実施の形態の説明図である。 この実施の形態では、 まず、 キャ ラ クタ 2 4、 2 5等を構成するポリゴンと、 エネ ミ ー等を構成するポ リ ゴンと、 背景等を構成するポ リ ゴンに、 それぞれ制限 値が設けられている。 この実施の形態では、 図 1 9 に示すように、 キャ ラクタ 2 4、 2 5等を構成するポリ ゴンの制限数 R 1 を設定したバッ ファ 8 1 と、 エネ ミ —等を構成するポリ ゴンの制限数 R 2が設定されたバッフ ァ 8 2 と、 背景等を構 成するポリ ゴンの制限数 R 3が設定されたバッファ 8 3 とを備えている。 このバ ッフ ァ 8 1〜 8 3 は例えば R A M 1 0 3 に設けてもよい。 これらの制限数 R 1 〜 R 3 は R 0 M 1 0 2に格納されており、 動作立ち上げ時に制限数 R 1〜 R 3をバ ッ フ ァ 8 2、 8 3 に格納する。
次に動作について図 1 8のフ ローチャー トに基づき説明する。
C P U 1 0 1 は、 ゲームの展開処理を実行する (ステ ッ プ 7 0 1 ) 。 これによ り、 C P U 1 0 1 は、 ノ、'ッ フ ァ 8 1 からポリゴンの制限数 R 1 を読み込む (ス テ ップ 7 0 2 ) 。 ついで、 C P U 1 0 1 は、 これを必要なキヤラクタに割りつける (ステップ 7 0 3 ) 。 C P U 1 0 1 は、 その割りつけられたポ リ ゴン数を超えな いようにしてキャラクタを作成する (ステップ 7 0 4 ) 。
次に、 C P U 1 0 1は、 バッ フ ァ 8 3からポリ ゴンの制限数 R 3 を読み込む (ステップ 7 0 5 ) 。 ついで、 C P U 1 0 1 は、 これを必要な背景に割りつける (ステップ 7 0 6 ) 。 C P U 1 0 1 は、 その割りつけられたポ リ ゴン数を超えな いようにして背景を作成する (ステッ プ 7 0 7 ) 。
そして、 C P U 1 0 1 はエネ ミ一の出現があるか否かを判断する (ステ ッ プ 7 0 8 ) 。 エネ ミ一の出現がない場合 (ステ ッ プ 7 0 8 ; N 0ゥ 、 C P U 1 0 1 は、 再びステッ プ 7 0 1 の処理に移行する。 このよ うにステ ッ プ 7 0 1 〜 7 0 8 まで の処理を実行すると、 表示画面は、 例えば、 図 2 0 ( a ) に示すようになる。 図 2 0 ( a ) には、 ト ロ ッ コ 2 0 と、 これに乗つたキャ ラ ク タ 2 4 , 2 5 と、 線路 2 1 、 地面 2 2、 背景 2 3が表現されている。
さらに、 エネ ミ一の出現がある場合 (ス テ ッ プ 7 0 8 ; Y E S ) 、 C P U 1 0 1 は、 再びス テ ッ プ 7 0 9 の処理に移行する。 ス テ ッ プ 7 0 9 では、 C P U 1 0 1 は、 ッ フ ァ 8 2 からポ リ ゴンの制限数 R 2 を読み込む (ス テ ッ プ 7 0 9 ) 。 ついで、 C P U 1 0 1 は、 これを必要なエネ ミ ーに割りつける (ステッ プ 7 1 0 ) C P U 1 0 1 は、 その割りつけられたポリ ゴン数を超えないようにしてェ ネ ミーを作成する (ステップ 7 1 1 ) 。 このようなステップ 7 0 8〜 7 1 1 が処 理される と、 表示画面は、 例えば、 図 2 0 ( b ) に示すよ うになる。 図 2 0 ( b ) には、 ト ロ ッ コ 2 0 と、 これに乗ったキ ャ ラ ク タ 2 4, 2 5 と、 線路 2 1 、 地面 2 2、 背景 2 3等と、 側面から ビス ト ルでねらうエネ ミ ー 2 7が表現されて いる。
従来は、 ヱネ ミ 一 2 7、 背景 2 3等のポ リ ゴンの総数を管理していたため、 数 多く のエネ ミー 2 7の出現にょり背景2 3 のポ リ ゴンが欠落するという問題が生 じていた。 ところが、 本実施の形態によれば、 エネ ミー 2 7 、 背景 2 3のそれぞ れのポ リ ゴンの上限を個別に管理しているため、 エネ ミー 2 7が数多く 出現した と しても、 背景 2 3のポリ ゴンが欠落することはない。
く視野角の説明〉
図 2 1 は、 同実施の形態による視野角の変更動作を説明するためのフ口一チ ヤ ー トである。
図 2 1 において、 C P U 1 0 1 は、 R 0 M 1 0 2 からのプロ グラ ムを基にゲ一 ム展開の動作を実行する (ス テ ッ プ 8 0 1 ) 。 視野角は、 ゲーム展開で変化し、 かつ、 予め決まっている。 そこで、 そのゲーム展開から C P U 1 0 1 は、 視野角 の判断を行う (ステップ 8 0 2 ) 。 C P U 1 0 1 は、 ゲーム処理中で例えば ト ロ ッ コ 2 0が原野等を走っていて、 視野角が大ならば (ス テ ッ プ 8 0 2 ; 大) 、 視 野角を大に設定する (ス テ ッ プ 8 0 3 ) 。 C P U 1 0 1 は、 ゲーム処理中で例え ば山やビル等の間を走行していて、 視野角が中位ならば (ス テ ッ プ 8 0 2 ; 中) 、 視野角を中に設定する (ステ ッ プ 8 0 4 ) 。 また、 C P U 1 0 1 は、 ゲーム処理 中で例えば ト ンネ ル内を走行していて、 視野角が小さいならば ( ステツ プ 8 0 2 ; 小) 、 視野角を小に設定する (ス テ ッ プ 8 0 5 ) 。 したがって、 C P U 1 0 1 は、 次のス テ ッ プ 8 0 6で、 設定された視野角を読 みだして視野角の処理を実行する (ステップ 8 0 6 ) 。
これにより、 例えばト ン ネ ル内を ト ロ ッ コ 2 0が走行中では視野角が著しく小 さ く なり遠く を表示する。 山中等を走行中では視野角を中位に設定する。 また、 平原等を走行中では、 視野角が大き く なる。 こ のよ うな視野角の変化は、 人間の 視覚特性に合致したものであるため、 現実感溢れるゲー ム画面を提供することが 可能となる。

Claims

請求の範囲
1 . 三次元空間座標上に構成された移動体を移動させるとともに、 前記移動体を 所定の視点から見た視点画像を生成する画像処理装置において、
前記移動体に関する情報が表現された情報表現体を三次元空間座標上に構成す る情報表現体生成手段を備えることを特徴とする画像処理装置。
2 . 前記情報表現体生成手段は、 前記情報表現体と して前記移動体の位置を表す 面状体を構成するこ とを特徴とする請求項 1記載の画像処理装置。
3 . 前記情報表現体生成手段は、 前記面状体を折り畳まれた状態から開いた状態 へと変化させることを特徴とする請求項 2記載の画像処理装置。
4 . 前記情報表現体が構成されたときに、 前記移動体及び前記情報表現体の両方 を表示するよう に前記視点を動かす視点移動手段を備えることを特徵とする請求 項 1乃至請求項 3 いずれかに記載の画像処理装置。
5 . 前記視点移動手段は、 さ らに、 前記視点を前記情報表現体に向けて移動させ ることを特徵とする請求項 4記載の画像処理装置。
6 . 生成された前記視点画像を表示する表示手段を備えるこ とを特徴とする請求 項 1乃至請求項 5 いずれかに記載の画像処理装置。
7 . 三次元空間座標上を前記移動体で移動しながらゲー ムを行うゲー ム装置であ つて、 請求項 1 乃至請求項 6いずれかに記載の画像処理装置を備えることを特徴 とするゲーム装置。
8 . 三次元空間座標上に構成された移動体及びこの移動体に関する情報が表現さ れた情報表現体を所定の視点から見た視点画像を生成する画像処理方法において、 前記移動体のみを表示する位置に前記視点を動かす第 1 のステ ッ プと、 前記移動体及び前記情報表現体の両方を表示する位置に前記視点を動かす第 2 のステ ツ'プと: . ·
前記情報表現体を大き く表現するように前記視点を前記情報表現体に向けて移 動させる第.3 のステ ッ プとを備える画像処理方法。
9 . 三次元空間座標内に構成された移動体と、
前記移動体がこれから逋過する軌道上に設けられた注目点と、
前記移動体がこれまでに通過した軌道上に設けられた通過点と、
前記注目点の位置情報と前記通過点位置の位置情報とに基づいて、 視軸方向を 決定する視軸決定手段とを備える画像処理装置。
1 0 . 前記視軸決定手段は、 前記移動体の前後等距離にある前記注目点及び前記 通過点の位置情報に基づいて、 視軸方向を決定する請求項 9記載の画像処理装置。
1 1 . 前記視点決定手段は、 前記移動体が曲線上を移動している場合に、 当該曲 線の性質に応じて、 前記移動体から前記注目点及び前記通過点までの距離をそれ ぞれ変更することを特徴とす.る請求項 1 0記載の画像処理装置。
1 2 . 生成された前記視点画像を表示する表示手段を備えることを特徴とする請 求項 1 0乃至請求項 1 1 いずれかに記載の画像処理装置。
1 3 . 三次元空間座標上を前記移動体で移動しながらゲームを行うゲーム装置で あって、 請求項 9乃至請求項 1 2いずれかに記載の画像処理装置を備えるこ とを 特徴とするゲーム装置。
1 4 . 三次元空間座標上に構成された移動体を移動させるとともに、 前記移動体 の視点から見た視点画像を生成する画像処理装置において、
前記視点を中心と した視線を前記移動体の軌跡に従つて滑らかに変える視点決 定手段を備えるこ とを特徴とする画像処理装置。
1 5 . 前記視点決定手段は、 前記移動体の前後の軌跡上の座標に基づき、 前記視 点を中心と した視線の方向を決定することを特徵とする請求項 1 4記載の画像処
1 6 , 前記視点決定手段は、 前記移動体の前後等距離にある 2つの座標を算出し これらの座標を結ぶ直線を前記視線の方向とする請求項 1 5記載の画像処理装置,
1 7 . 前記視点決定手段は、 前記移動体が曲線上を移動している場合に、 当該曲 線の性質に応じて、 前記移動体から前後の座標までのそれぞれの距離を変更する こ とを特徴とする請求項 1 5又は請求項 1 6記載の画像処理装置。
1 8 . 生成された前記視点画像を表示する表示手段を備えることを特徴とする請 求項 1 4乃至請求項 1 7 いずれかに記載の画像処理装置。
1 9 . 三次元空間座標上を前記移動体で移動しながらゲームを行うゲーム装置で あって、 請求項 1 4乃至請求項 1 8いずれかに記載の画像処理装置を備えるこ ど を特徴とするゲーム装置。
2 0 . 三次元空間座標上に構成された移動体を移動させると と もに、 前記移動体 の視点から見た視点画像を生成する画像処理方法において、
前記移動体の位置を読み込む第 1 のステッ プと、
前記移動体の位置から予め定められた距離離れた前方の軌道上に第 1 の点を設 定する第 2 のステ ップと、
前記移動体の位置から予め定められた距離離れた後方の軌道上に第 2の点を設 定する第 3のステ ッ プと、
前記第 1 の点と前記第 2の点とを結ぶ線に基づき前記視点の視線の方向を定め る第 4のステ ッ プとを備える画像処理方法。
2 1 . 連結された複数のポ リ ゴンのそれぞれにテ ク ス チ ャをはりつけ、 所定の画 像を生成する画像処理装置において、
互いに連結された複数のポ リ ゴン毎に基準べク トルを決定し、 前記テク スチ ヤ を前記基準ベク ト ルの方向に移動させる座標処理手段を備え、 移動された前記テ ク スチ ヤを前記ボ リ ゴンにはりつけることを特徴とする画像処理装置。
2 2 . 連結された複数のポ リ ゴンのそれぞれにテク スチ ャをはりつけ、 所定の画 像を生成する画像処理装置において、
縦横に連結された複数のポリ ゴンの縦または横方向のポリ ゴン列毎に基準べク トルを決定し、 前記テクスチ ヤを変形することなく 、 この基準べク ト ルの方向に 移動させる座標処理手段を備える画像処理装置。
2 3 . 前記座標処理手段は、 予め定められた曲線に基づき前記基準ベク ト ルを決 定することを特徴とする請求項 2 1又は請求項 2 2記載の画像処理装置。
2 4 . 前記複数のポリ ゴン毎の基準べク トルは連続し、 前記テ ク スチ ヤは前記曲 線に沿った流れに対応することを特徴とする請求項 2 3記載の画像処理装置。
2 5 . 生成された前記画像を表示する表示手段を備えることを特徴とする請求項 2 1乃至請求項 2 4いずれかに記載の画像処理装置。
2 6 . 連結された複数のポリ ゴンのそれぞれにテク ス チ ャをはりつけ、 所定の画 像を生成する画像処理方法において、
互いに連結された複数のポ リ ゴン毎に基準べク ト ルを決定する第 1 のステ ッ プ と、
前記テ ク スチ ャ を前記基準べク ト ルの方向に移動させる第 2 のス テ ッ プと 、 移動された前記テク スチ ヤを前記ポリ ゴンにはりつける第 3 のス テップとを備 えるこ とを特徴とする画像処理方法。
2 7 . 三次元空間座標上に構成された移動体を移動させるとと もに、 こ の移動体 の位置の視点から見た視点画像を生成する画像処理装置において、
遠方の背景を表す背景画像を、 前記視点の移動とと もに移動させる移動処理手 段を備えることを特徴とする画像処理装置。
2 8 . 前記背景画像は円筒形あるいは球形をなすことを特徴とする請求項 2 7記 載の画像処理装置。
2 9 . 生成された前記視点画像を表示する表示手段を備えることを特徴とする請 求項 2 7又は請求項 2 8に記載の画像処理装置。
3 0 . 三次元空間座標上を前記移動体で移動しながらゲームを行うゲーム装匱で あつて、 請求項 2 7乃至請求項 2 9 いずれかに記載の画像処理装置を備えるこ と を特徴とするゲーム装置。
3 1 . 三次元空間座標上に構成された移動体を移動させるとともに、 この移動体 の位置の視点から見た視点画像を生成する画像処理方法において、
前記移動体の移動量を求める第 1 のステップと、
前記移動量に基づき、 遠方の背景を表す背景画像を移動させる第 2のス テ ッ プ とを備えることを特徴とする画像処理方法。
3 2 . 三次元空間座標上に構成された移動体を移動させるとともに、 この移動体 の位置の視点から見た視点画像をポ リ ゴンを用いて生成する画像処理装置におい て、
前記視点画像を構成するポ リ ゴンを複数に分類し、 各分類毎にポ リ ゴンの表示 個数が予め定められた最大表示個数以下となるように、 ポリ ゴンの表示個数を制 御するポリ ゴン数制御手段を備えることを特徴とする画像処理装置。
3 3 . 前記ポリ ゴン数制御手段は、 前記視点画像を構成するポ リ ゴ ンを、 少なく とも背景を表すポ リ ゴンおよびその他のポリ ゴンに分類することを特徴とする請 求項 3 2記載の画像処理装置。
3 4 . 生成された前記視点画像を表示する表示手段を備えることを特徴とする請 求項 3 2又は請求項 3 3 に記載の画像処理装置。
3 5 . 三次元空間座標上を前記移動体で移動しながらゲー ムを行うゲー ム装置で あって、 請求項 3 2乃至請求項 3 4いずれかに記載の画像処理装置を備えるこ と を特徴とするゲー ム装置。
3 6 . 三次元空間座標上に構成された移動体を移動させるとともに、 こ の移動体 の位置の視点から見た視点画像をポ リ ゴンを用いて生成する画像処理方法におい て、 ■ ■ ■ ■
前記視点画像を構成するポ リゴンを複数に分類し、 前記各分類毎にポ リ ゴンの 表示個数の最大表示個数を定める第 1 のス テ ッ プと、
前記最大表示個数を超えない範囲において前記各分類毎にポ リ ゴンの表示個数 を制御する第 2のステップとを備えることを特徴とする画像処理方法。
3 7 . 三次元空間座標上に構成された移動体を移動させるとと もに、 この移動体 の位置の視点から見た視点画像を生成する画像処理装置において、
前記視点画像の視野を移動方向の状況に応じて変更する視野変更手段を備える ことを特徴とする画像処理装置。
3 8 . 前記視野変吏手段は、 前記移動体の前方に物体がないときは視野を広く し、 物体があるときは視野を狭くすることを特徴とする請求項 3 7記載の画像処理装 置。
3 9 . 生成された前記視点画像を表示する表示手段を備えることを特徴とする請 求項 3 7又は請求項 3 8 に記載の画像処理装置。
4 0 . 三次元空間座標上を前記移動体で移動しながらゲ一ムを行うゲーム装置で あって、 請求項 3 7乃至請求項 3 9 いずれかに記載の画像処理装置を備えること を特徴とするゲーム装置。
4 1 . 三次元空間座標上に構成された移動体を移動させるとともに、 こ の移動体 の位置の視点から見た視点画像を生成する画像処理方法において、
前記移動体の前方の物体の状況を調べる第 1 のス テ ッ プと、
物体がないときに視野を広ぐし、 物体があるときに視野を狭くする第 2 のス テ ップとを備えることを特徴とする画像処理方法。
4 2 . 請求項 8、 請求項 2 0、 請求項 2 6、 請求項 3 1 、 請求項 3 6、 又は、 請 求項 4 1 いずれかに記載の方法を処理装置に実行させる手順が記憶される記憶媒 体。
PCT/JP1996/001331 1995-05-19 1996-05-20 Dispositif de traitement d'une image, procede de traitement d'une image dispositif de jeu utilisant ces derniers et support de memoire WO1996036945A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US08/765,813 US5830066A (en) 1995-05-19 1996-05-20 Image processing device, image processing method, and game device and storage medium using the same
EP96915197A EP0782104B1 (en) 1995-05-19 1996-05-20 Image processing device, image processing method, storage medium and computer program
KR1019970700347A KR100276598B1 (ko) 1995-05-19 1996-05-20 화상처리장치, 화상처리방법 및 이것을 이용한 게임장치
JP53470996A JP3859084B2 (ja) 1995-05-19 1996-05-20 画像処理装置、画像処理方法及びこれを用いたゲーム装置並びに記憶媒体
DE69631949T DE69631949D1 (de) 1995-05-19 1996-05-20 Bildverarbeitungsgerät, bildverarbeitungsverfahren, speichermedium, und computerprogramm

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP7/145597 1995-05-19
JP14559795 1995-05-19

Publications (1)

Publication Number Publication Date
WO1996036945A1 true WO1996036945A1 (fr) 1996-11-21

Family

ID=15388749

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1996/001331 WO1996036945A1 (fr) 1995-05-19 1996-05-20 Dispositif de traitement d'une image, procede de traitement d'une image dispositif de jeu utilisant ces derniers et support de memoire

Country Status (7)

Country Link
US (4) US5830066A (ja)
EP (1) EP0782104B1 (ja)
JP (1) JP3859084B2 (ja)
KR (1) KR100276598B1 (ja)
CN (3) CN100501768C (ja)
DE (1) DE69631949D1 (ja)
WO (1) WO1996036945A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10211360A (ja) * 1997-01-30 1998-08-11 Sega Enterp Ltd ゲーム装置及びゲーム装置における画面表示方法
JPH1186031A (ja) * 1997-09-11 1999-03-30 Sega Enterp Ltd 画像処理装置及び画像処理方法並びに媒体
JP2016033736A (ja) * 2014-07-31 2016-03-10 株式会社コロプラ 複数の画像間の画面表示をスムーズに移行させるコンピュータ・プログラム

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69625523T2 (de) 1995-05-10 2003-07-10 Nintendo Co Ltd Steuergerät mit analogem Joystick
WO1996036945A1 (fr) * 1995-05-19 1996-11-21 Sega Enterprises, Ltd. Dispositif de traitement d'une image, procede de traitement d'une image dispositif de jeu utilisant ces derniers et support de memoire
JPH09153146A (ja) * 1995-09-28 1997-06-10 Toshiba Corp 仮想空間表示方法
US6007428A (en) 1995-10-09 1999-12-28 Nintendo Co., Ltd. Operation controlling device and video processing system used therewith
JP3524247B2 (ja) 1995-10-09 2004-05-10 任天堂株式会社 ゲーム機およびそれを用いたゲーム機システム
JP3544268B2 (ja) 1995-10-09 2004-07-21 任天堂株式会社 三次元画像処理装置およびそれを用いた画像処理方法
CN1149465C (zh) 1995-10-09 2004-05-12 任天堂株式会社 三维图像显示游戏机系统和三维图像处理方法
GB2313432B (en) 1995-11-10 2000-06-21 Nintendo Co Ltd Joystick device
US6022274A (en) 1995-11-22 2000-02-08 Nintendo Co., Ltd. Video game system using memory module
US6155926A (en) 1995-11-22 2000-12-05 Nintendo Co., Ltd. Video game system and method with enhanced three-dimensional character and background control
US6267673B1 (en) 1996-09-20 2001-07-31 Nintendo Co., Ltd. Video game system with state of next world dependent upon manner of entry from previous world via a portal
ES2332271T3 (es) * 1996-06-05 2010-02-01 Kabushiki Kaisha Sega Doing Business As Sega Corporation Dispositivo de procesamiento de graficos, metodo de procesamiento de graficos, maquina de juegos y medio de almacenamiento.
US6244959B1 (en) 1996-09-24 2001-06-12 Nintendo Co., Ltd. Three-dimensional image processing system with enhanced character control
US6139434A (en) 1996-09-24 2000-10-31 Nintendo Co., Ltd. Three-dimensional image processing apparatus with enhanced automatic and user point of view control
JP3709509B2 (ja) * 1996-12-04 2005-10-26 株式会社セガ ゲーム装置
JPH1186038A (ja) * 1997-03-03 1999-03-30 Sega Enterp Ltd 画像処理装置、画像処理方法及び媒体並びにゲーム機
JP3767094B2 (ja) * 1997-06-17 2006-04-19 株式会社セガ ビデオゲーム装置における遊戯者により操作される複数キャラクタの表示制御方法
JP3655438B2 (ja) 1997-07-17 2005-06-02 任天堂株式会社 ビデオゲームシステム
US6424353B2 (en) * 1997-09-11 2002-07-23 Sega Enterprises, Ltd. Computer game apparatus
JPH11128533A (ja) 1997-10-30 1999-05-18 Nintendo Co Ltd ビデオゲーム装置およびその記憶媒体
DE69838734T2 (de) * 1997-11-25 2008-10-30 Kabushiki Kaisha Sega Doing Business As Sega Corp. Bilderzeugungsgerät
JP2992499B2 (ja) * 1998-01-05 1999-12-20 コナミ株式会社 画像処理方法及び装置、記録媒体
JPH11207029A (ja) * 1998-01-28 1999-08-03 Konami Co Ltd ビデオゲーム装置、ビデオゲームにおける画面表示方法及び画面表示プログラムが格納された可読記録媒体
JP3342393B2 (ja) * 1998-03-19 2002-11-05 株式会社コナミコンピュータエンタテインメントジャパン ビデオゲーム装置、コンピュータ読み取り可能な記録媒体
JP3824788B2 (ja) * 1998-09-28 2006-09-20 株式会社コナミデジタルエンタテインメント ビデオゲーム装置、ビデオゲームにおけるゲーム画面の視点切替方法及びビデオゲームにおけるゲーム画面の視点切替プログラムが記録されたコンピュータ読み取り可能な記録媒体
JP3005581B1 (ja) * 1999-03-16 2000-01-31 コナミ株式会社 画像作成装置、画像作成方法、画像作成プログラムが記録された可読記録媒体およびビデオゲ―ム装置
JP3695217B2 (ja) * 1999-04-30 2005-09-14 オムロン株式会社 画像処理装置及び画像入力装置
JP4387511B2 (ja) * 1999-09-09 2009-12-16 株式会社バンダイナムコゲームス ゲーム装置および情報記憶媒体
JP2001118049A (ja) * 1999-10-14 2001-04-27 Sega Corp マトリクス演算器を有する画像処理装置
US6556206B1 (en) * 1999-12-09 2003-04-29 Siemens Corporate Research, Inc. Automated viewpoint selection for 3D scenes
US6989832B2 (en) 2000-01-21 2006-01-24 Sony Computer Entertainment Inc. Entertainment apparatus, storage medium and object display method
JP3350655B2 (ja) * 2000-01-25 2002-11-25 株式会社ナムコ ゲームシステム及び情報記憶媒体
US6724385B2 (en) 2000-03-08 2004-04-20 Sony Computer Entertainment Inc. Method of replaying game, recording medium, program, and entertainment system
JP3310257B2 (ja) * 2000-03-24 2002-08-05 株式会社コナミコンピュータエンタテインメントジャパン ゲームシステム及びゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体
JP3625172B2 (ja) 2000-04-26 2005-03-02 コナミ株式会社 画像作成装置、画像作成方法、画像作成プログラムが記録されたコンピュータ読み取り可能な記録媒体およびビデオゲーム装置
JP2002095863A (ja) * 2000-07-03 2002-04-02 Sony Computer Entertainment Inc プログラム実行システム、プログラム実行装置、記録媒体及びプログラム、並びに視点を切り換える方法及び照準を切り換える方法
US7244181B2 (en) * 2000-11-14 2007-07-17 Netamin Communication Corp. Multi-player game employing dynamic re-sequencing
US6908389B1 (en) * 2001-03-07 2005-06-21 Nokia Corporation Predefined messages for wireless multiplayer gaming
JP4099434B2 (ja) * 2003-07-08 2008-06-11 任天堂株式会社 画像生成プログラム及びゲーム装置
JP4245433B2 (ja) * 2003-07-23 2009-03-25 パナソニック株式会社 動画作成装置および動画作成方法
US7210323B2 (en) * 2003-12-16 2007-05-01 General Motors Corporation Binder apparatus for sheet forming
US7364091B2 (en) 2003-12-19 2008-04-29 Scientific Games International, Inc. Embedded optical signatures in documents
AU2005292264B2 (en) * 2004-10-01 2009-06-11 Wms Gaming Inc. System and method for 3D image manipulation in gaming machines
CA2585964A1 (en) 2004-10-28 2006-05-11 Scientific Games Royalty Corp. Lottery game played on a geometric figure using indicia with variable point values
JP4515221B2 (ja) * 2004-10-29 2010-07-28 任天堂株式会社 ゲームプログラム
JP3880008B2 (ja) * 2004-12-21 2007-02-14 株式会社光栄 キャラクタ集団移動制御プログラム、記憶媒体及びゲーム装置
US7662038B2 (en) 2005-01-07 2010-02-16 Scientific Games International, Inc. Multi-matrix lottery
KR20070108171A (ko) 2005-01-07 2007-11-08 사이언티픽 게임스 인터내셔널, 아이엔씨. 추억의 게임 테마를 사용하는 추첨 게임
US7824257B2 (en) 2005-01-11 2010-11-02 Scientific Games International, Inc. On-line lottery game in which supplemental lottery-selected indicia are available for purchase
US8262453B2 (en) 2005-02-09 2012-09-11 Scientific Games International, Inc. Combination lottery and raffle game
US7874902B2 (en) 2005-03-23 2011-01-25 Scientific Games International. Inc. Computer-implemented simulated card game
EP1874418A1 (en) 2005-04-27 2008-01-09 Scientific Games International, Inc. Game apparatus
JP4312737B2 (ja) * 2005-05-13 2009-08-12 任天堂株式会社 ゲームプログラムおよびゲーム装置
US7654529B2 (en) 2005-05-17 2010-02-02 Scientific Games International, Inc. Combination scratch ticket and on-line game ticket
JP4711223B2 (ja) * 2005-08-02 2011-06-29 株式会社セガ 画像生成プログラム、記憶媒体、画像処理方法及び画像処理装置
US20070033773A1 (en) * 2005-08-11 2007-02-15 Red Lan Releasable fastening device for fastening an article on a support frame
CN100375429C (zh) * 2005-11-29 2008-03-12 珠海市西山居软件有限公司 通过浏览器实时观看玩家游戏的方法
CN100375430C (zh) * 2005-11-29 2008-03-12 珠海市西山居软件有限公司 一种游戏录像回放方法及系统
US20070265043A1 (en) * 2006-04-12 2007-11-15 Wang Andy Y Team-based networked video gaming and automatic event management
US9327191B2 (en) * 2006-05-08 2016-05-03 Nintendo Co., Ltd. Method and apparatus for enhanced virtual camera control within 3D video games or other computer graphics presentations providing intelligent automatic 3D-assist for third person viewpoints
JP5330640B2 (ja) * 2006-05-09 2013-10-30 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US9666031B2 (en) * 2006-06-12 2017-05-30 Bally Gaming, Inc. Wagering machines having three dimensional game segments
US8277316B2 (en) 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US8201096B2 (en) * 2007-06-09 2012-06-12 Apple Inc. Browsing or searching user interfaces and other aspects
US8834245B2 (en) * 2007-08-17 2014-09-16 Nintendo Co., Ltd. System and method for lock on target tracking with free targeting capability
JP4489800B2 (ja) * 2007-08-30 2010-06-23 株式会社スクウェア・エニックス 画像生成装置及び方法、並びにプログラム及び記録媒体
US8081186B2 (en) * 2007-11-16 2011-12-20 Microsoft Corporation Spatial exploration field of view preview mechanism
US8584044B2 (en) * 2007-11-16 2013-11-12 Microsoft Corporation Localized thumbnail preview of related content during spatial browsing
US20090132967A1 (en) * 2007-11-16 2009-05-21 Microsoft Corporation Linked-media narrative learning system
US9098647B2 (en) 2008-03-10 2015-08-04 Apple Inc. Dynamic viewing of a three dimensional space
US8089479B2 (en) * 2008-04-11 2012-01-03 Apple Inc. Directing camera behavior in 3-D imaging system
US9619917B2 (en) 2008-10-03 2017-04-11 Apple Inc. Depth of field for a camera in a media-editing application
US8577518B2 (en) * 2009-05-27 2013-11-05 American Aerospace Advisors, Inc. Airborne right of way autonomous imager
US8460081B2 (en) 2010-05-14 2013-06-11 Scientific Games International, Inc. Grid-based multi-lottery game and associated method
US8808080B2 (en) 2010-05-14 2014-08-19 Scientific Games International, Inc. Grid-based lottery game and associated method
JP5689953B2 (ja) * 2010-05-25 2015-03-25 ジョン、ジェ ウンJEON, Jae Woong アニメーション著作システムおよびアニメーション著作方法
JP5887160B2 (ja) * 2012-02-15 2016-03-16 任天堂株式会社 画像処理システム、ゲームシステム、画像処理方法、画像処理装置及びコンピュータプログラム
CA3122091A1 (en) 2018-12-05 2020-06-11 Caesars Enterprise Services, Llc Video slot gaming screen capture and analysis
JP7233399B2 (ja) * 2020-06-23 2023-03-06 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US11511190B2 (en) * 2021-05-03 2022-11-29 Sony Interactive Entertainment Inc. Merge computer simulation sky box with game world

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02216184A (ja) * 1989-02-17 1990-08-29 Mitsubishi Precision Co Ltd 模擬視界発生装置
JPH04127279A (ja) * 1990-06-11 1992-04-28 Hitachi Ltd 物体の運動経路生成装置および方法
JPH05282428A (ja) * 1992-04-03 1993-10-29 Fujitsu Ltd 3次元コンピュータグラフィクス用図形データ作成方法
JPH078632A (ja) * 1993-03-26 1995-01-13 Namco Ltd 3次元ゲーム装置
JPH0724142A (ja) * 1993-07-13 1995-01-27 Sega Enterp Ltd ゲーム装置
JPH07110873A (ja) * 1993-10-13 1995-04-25 Canon Inc 画像処理装置
JPH07116343A (ja) * 1992-06-12 1995-05-09 Sega Enterp Ltd 電子遊戯機器

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US557960A (en) * 1896-04-07 brintnell
US467541A (en) * 1892-01-26 Countee balance for stove or range doors
GB2133257B (en) * 1982-12-22 1987-07-29 Ricoh Kk T v game system
AU556546B2 (en) * 1984-03-28 1986-11-06 Bela Bogar Spacers for concrete reinforcing elements
US4672541A (en) * 1984-05-31 1987-06-09 Coleco Industries, Inc. Video game with interactive enlarged play action inserts
US5191642A (en) * 1987-04-09 1993-03-02 General Electric Company Method for efficiently allocating computer resource for real time image generation
JP2725062B2 (ja) * 1989-08-01 1998-03-09 株式会社リコー 画像処理装置
US5175616A (en) * 1989-08-04 1992-12-29 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada Stereoscopic video-graphic coordinate specification system
WO1992009965A1 (en) 1990-11-30 1992-06-11 Cambridge Animation Systems Limited Animation
US5261820A (en) * 1990-12-21 1993-11-16 Dynamix, Inc. Computer simulation playback method and simulation
US5341468A (en) * 1991-01-28 1994-08-23 Ricoh Company, Ltd. Image processor
JP2983728B2 (ja) * 1991-01-30 1999-11-29 株式会社リコー クリッピング処理装置
FR2676573B1 (fr) * 1991-05-14 1997-01-24 Thomson Csf Procede de visualisation en temps reel d'ecoulements de fluides.
US5384908A (en) * 1991-12-30 1995-01-24 Xerox Corporation Avoiding oscillation in interactive animation
US5366376A (en) * 1992-05-22 1994-11-22 Atari Games Corporation Driver training system and method with performance data feedback
US5830065A (en) 1992-05-22 1998-11-03 Sitrick; David H. User image integration into audiovisual presentation system and methodology
JP2760253B2 (ja) * 1992-07-14 1998-05-28 住友電気工業株式会社 道路の動画像作成方法及びこの方法を適用した車載ナビゲーション装置
JP2807608B2 (ja) * 1992-12-29 1998-10-08 株式会社ナムコ ソーティング処理装置、これを用いた画像合成装置及びソーティング処理方法
JPH0817853B2 (ja) * 1993-02-19 1996-02-28 日本電気株式会社 対戦シミュレーションゲームの画面表示方式
US5555354A (en) * 1993-03-23 1996-09-10 Silicon Graphics Inc. Method and apparatus for navigation within three-dimensional information landscape
US5598187A (en) * 1993-05-13 1997-01-28 Kabushiki Kaisha Toshiba Spatial motion pattern input system and input method
US5577960A (en) * 1993-06-10 1996-11-26 Namco, Ltd. Image synthesizing system and game playing apparatus using the same
US5616079A (en) * 1993-06-16 1997-04-01 Namco Ltd. Three-dimensional games machine
JPH078623A (ja) 1993-06-23 1995-01-13 Sophia Co Ltd 遊技機の集中管理装置
JP3311830B2 (ja) * 1993-09-20 2002-08-05 株式会社東芝 3次元動画作成装置
JP3704734B2 (ja) 1994-01-26 2005-10-12 株式会社日立製作所 テクスチャマッピング方法及び装置
TW284870B (ja) * 1994-01-26 1996-09-01 Hitachi Ltd
US6010405A (en) * 1994-12-30 2000-01-04 Sega Enterprises, Ltd. Videogame system for creating simulated comic book game
JP3442183B2 (ja) * 1995-02-28 2003-09-02 株式会社ナムコ 3次元ゲーム装置及び画像合成方法
WO1996036945A1 (fr) * 1995-05-19 1996-11-21 Sega Enterprises, Ltd. Dispositif de traitement d'une image, procede de traitement d'une image dispositif de jeu utilisant ces derniers et support de memoire

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02216184A (ja) * 1989-02-17 1990-08-29 Mitsubishi Precision Co Ltd 模擬視界発生装置
JPH04127279A (ja) * 1990-06-11 1992-04-28 Hitachi Ltd 物体の運動経路生成装置および方法
JPH05282428A (ja) * 1992-04-03 1993-10-29 Fujitsu Ltd 3次元コンピュータグラフィクス用図形データ作成方法
JPH07116343A (ja) * 1992-06-12 1995-05-09 Sega Enterp Ltd 電子遊戯機器
JPH078632A (ja) * 1993-03-26 1995-01-13 Namco Ltd 3次元ゲーム装置
JPH0724142A (ja) * 1993-07-13 1995-01-27 Sega Enterp Ltd ゲーム装置
JPH07110873A (ja) * 1993-10-13 1995-04-25 Canon Inc 画像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0782104A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10211360A (ja) * 1997-01-30 1998-08-11 Sega Enterp Ltd ゲーム装置及びゲーム装置における画面表示方法
JPH1186031A (ja) * 1997-09-11 1999-03-30 Sega Enterp Ltd 画像処理装置及び画像処理方法並びに媒体
JP2016033736A (ja) * 2014-07-31 2016-03-10 株式会社コロプラ 複数の画像間の画面表示をスムーズに移行させるコンピュータ・プログラム

Also Published As

Publication number Publication date
CN1912918A (zh) 2007-02-14
CN1264122C (zh) 2006-07-12
CN1114891C (zh) 2003-07-16
CN1154750A (zh) 1997-07-16
US7207884B2 (en) 2007-04-24
KR100276598B1 (ko) 2000-12-15
CN100501768C (zh) 2009-06-17
US5830066A (en) 1998-11-03
US20020151361A1 (en) 2002-10-17
EP0782104A4 (en) 1998-12-02
CN1368708A (zh) 2002-09-11
DE69631949D1 (de) 2004-04-29
US6419582B1 (en) 2002-07-16
EP0782104B1 (en) 2004-03-24
JP3859084B2 (ja) 2006-12-20
US20070155492A1 (en) 2007-07-05
EP0782104A1 (en) 1997-07-02

Similar Documents

Publication Publication Date Title
WO1996036945A1 (fr) Dispositif de traitement d&#39;une image, procede de traitement d&#39;une image dispositif de jeu utilisant ces derniers et support de memoire
EP0844587B1 (en) Image processor, image processing method, game machine and recording medium
JP3786132B2 (ja) ゲーム画像処理プログラム及び記憶媒体
US6952205B2 (en) Recording medium storing 3D image processing program, the program, 3D image processing method and video game apparatus
US7277571B2 (en) Effective image processing, apparatus and method in virtual three-dimensional space
JP2007180935A (ja) 音声処理装置、音声処理方法、ならびに、プログラム
WO1999024937A9 (fr) Dispositif et procede de generation d&#39;images
JP3005581B1 (ja) 画像作成装置、画像作成方法、画像作成プログラムが記録された可読記録媒体およびビデオゲ―ム装置
JP3956318B2 (ja) 画像処理装置、画像処理方法及びこれを用いたゲーム装置並びに記憶媒体
JP2006061717A (ja) ゲーム画像の表示制御プログラム及びゲーム装置並びに記憶媒体
JP3583995B2 (ja) エンタテインメント装置、記憶媒体およびオブジェクト表示方法
US7129945B2 (en) Image generation method, program and information storage medium
JP4577968B2 (ja) ゲームシステム及び情報記憶媒体
JP3937180B2 (ja) 画像処理装置、画像処理方法及びこれを用いたゲーム装置並びに記憶媒体
JP2001286675A (ja) ゲーム装置、情報記憶媒体およびゲームシステム
JPH10230075A (ja) ゲーム装置
JP2004220626A (ja) 画像処理装置
JP2002042154A (ja) ゲームシステム及び情報記憶媒体
JP2000148986A (ja) シミュレーション装置および方法
JP2002260012A (ja) 画像の生成方法及びそれに用いるプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 96190524.7

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE ES FR GB IT

WWE Wipo information: entry into national phase

Ref document number: 1019970700347

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 1996915197

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1996915197

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 08765813

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1019970700347

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019970700347

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1996915197

Country of ref document: EP