WO2004084538A1 - 画像領域指定機能を有する画像処理装置 - Google Patents

画像領域指定機能を有する画像処理装置 Download PDF

Info

Publication number
WO2004084538A1
WO2004084538A1 PCT/JP1998/005497 JP9805497W WO2004084538A1 WO 2004084538 A1 WO2004084538 A1 WO 2004084538A1 JP 9805497 W JP9805497 W JP 9805497W WO 2004084538 A1 WO2004084538 A1 WO 2004084538A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
determining
specified
unit
Prior art date
Application number
PCT/JP1998/005497
Other languages
English (en)
French (fr)
Inventor
Gururaj Rao
Hiroki Kanno
Original Assignee
Gururaj Rao
Hiroki Kanno
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gururaj Rao, Hiroki Kanno filed Critical Gururaj Rao
Priority to US09/355,962 priority Critical patent/US6323876B1/en
Publication of WO2004084538A1 publication Critical patent/WO2004084538A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40062Discrimination between different image types, e.g. two-tone, continuous tone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30176Document

Definitions

  • the present invention relates to an image forming apparatus such as a digital copying machine, and more particularly to a technique for designating and processing a specific area in an image.
  • Conventional technology such as a digital copying machine, and more particularly to a technique for designating and processing a specific area in an image.
  • the present invention relates to an area specifying method that allows a user to easily specify a specific image area (for example, one-touch specification) based on an image identification result of a read document image, and an image processing apparatus that processes a specified image area And an image forming apparatus.
  • a specific image area for example, one-touch specification
  • an image processing apparatus comprises: Area determining means for determining a plurality of image areas in the original image from the data, display means for displaying the position of the image area determined by the area determining means in the original image, and display means for displaying the image area.
  • a specifying means for specifying at least one point based on the content, and an image area corresponding to the specified position based on the coordinates of the position specified by the specifying means and the position of the image area.
  • Determining means for determining the specified area; and image processing means for performing image processing on the image of the specified area determined by the determining means.
  • the area determination means determines one or more non-image areas existing between the determined plurality of image areas. When the specified position is within the non-image area determined by the area determining means, the determining means determines the non-image area as the specified area.
  • the display means changes the brightness, for example, so that the designated area determined by the determining means can be distinguished from other image areas and displays the image.
  • the display means displays the outline of each image area determined by the area determination means at a corresponding position in the document frame of the document image.
  • the area determining means integrates a set of objects having the same attribute based on the feature quantity, which calculates the position and size of each object constituting the document image and provides the feature quantity.
  • FIG. 1 is a block diagram illustrating a configuration of an image forming apparatus according to an embodiment of the present invention.
  • 2A to 2C are diagrams for explaining an image input operation of the image input unit.
  • FIG. 3 shows a storage example of the input image storage unit.
  • FIG. 4 is a block diagram illustrating a configuration example of an image identification unit.
  • FIG. 5 is a block diagram showing a configuration example of a feature amount calculation unit in FIG.
  • FIG. 6 is a diagram for explaining projection by the all-image projecting unit in FIG.
  • FIG. 7A to 7D are diagrams for explaining processing operations in an 8-neighbor connected component extraction unit, a labeling 'grouping unit, and a coordinate calculation unit in FIG. 8A and 8B are diagrams for explaining the processing operation of the 8-neighbor connected component extraction unit in FIG.
  • FIG. 9 is a diagram illustrating an example of storing feature amounts in a feature storage unit in FIG. 4;
  • FIG. 10 is a block diagram showing a configuration example of an area determination unit in FIG.
  • FIG. 11 is a diagram illustrating a storage example of an identification result storage unit in FIG. 4;
  • FIG. 12 is a diagram for explaining the display of the identification result in the user interface unit of FIG. 1 and a method of specifying an image area.
  • FIG. 13 is a diagram showing an example of image area information stored in the identification result storage unit when an image area is designated.
  • FIG. 14 is a diagram for explaining a method of specifying and selecting an image area.
  • FIG. 15 is a diagram for explaining an operation of selecting an image area and a blank area.
  • FIG. 16 shows a configuration example of a control panel and an interface controller.
  • FIG. 17 is a flowchart showing an outline of the processing operation of the image forming apparatus of FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 shows a configuration example of an image forming apparatus according to the present embodiment.
  • the image forming apparatus includes, for example, an image input unit 1 that is configured by a scanner and reads and inputs an image on a document, an input image storage unit 2 for temporarily storing an image input by the image input unit 1, An image identification unit 3 that calculates attributes of an image to identify attributes, an area selection unit 4 that selects an image area according to a user's instruction, and an image corresponding to the selected image area from an input image storage unit 2.
  • An image processing unit 5 that cuts out the image and performs the processing instructed by the user, an output image storage unit 6 that temporarily stores the processed image, and an image processing unit that performs an instruction from the user and a result display to the user.
  • the image output unit 11 of FIG. Further, this device may include an external interface unit 12 for connecting to an arbitrary network.
  • the image processed by the image processing unit 5 can be output to the outside via an arbitrary network such as a public network or a LAN connected by the external interface unit 12.
  • the image input unit 1 includes an input device such as a scanner, for example, and is for inputting image data to an image forming apparatus. For example, if a 10-pixel / mm, 8-bit / pixel scanner is used as the input device, the information on the input document is sampled at an interval of 10 pixels / mm (0.1 mm pitch).
  • FIG. 2 is for explaining the correspondence of information obtained by sampling a document, and shows a case where, for example, a document of A3 (42 OmtnX 2 97 mm) is sampled at a pitch of 0.1 mm.
  • the number of pixels after sampling is (4200 x 2970), and if there are 256 gradations per pixel, the data will be about 12 Mbytes.
  • 4 mm X 4 As shown in Fig. 2A, 40 mm in the X direction (horizontal direction) and 40 mm in the Y direction (vertical direction), 4 mm X 4 as shown in Fig. 2B
  • the start coordinate of the character is (400, 400) and the end coordinate is (439, 439), as shown in Figure 2C.
  • Sampling is performed in units of area S shown in Fig. 2C, and the value is used as the pixel value at that coordinate. For example, if the sampling value in the sampling area S at a position of 41.9 mm in the vertical direction and 40.1 mm in the horizontal direction is 220, this value is set as the pixel value of the coordinates (4 18, 400).
  • Figure 3 shows an example of the correspondence between pixel coordinates and pixel values obtained as a result of sampling.
  • the sampling frequency is 10 lines Zmm
  • FIGS. 2 and 3 the case where the sampling frequency is 10 lines Zmm has been described as an example, but sampling of other frequencies is performed based on the same principle.
  • Input image storage The input image storage unit 2 stores the pixel value of the pixel in an address corresponding to the coordinates of the pixel obtained as a result of the sampling, for example, as shown in FIG. Each pixel value represents the density of the pixel at that coordinate.
  • the blacker the pixel the higher the pixel value.
  • FIG. 4 shows an example of the configuration of the image identification unit 3.
  • the feature amount calculation unit 3 a the feature amount storage unit 3 b, the area determination unit 3 c, the area determination information storage unit 3 d, And a result storage unit 3e.
  • FIG. 5 shows a configuration example of the feature amount calculation unit 3a.
  • the control unit 31 controls the entire processing operation of the feature amount calculation unit 3a.
  • the feature amount access unit 32 generates an address and a control signal for storing the feature amount calculated based on the original image in the feature amount storage unit 3b of FIG.
  • the image access unit 34 generates an address for reading a document image from the input image storage unit 2 in FIG. 1, a control signal, and the like.
  • the binarization unit 33 receives the image data read from the input image storage unit 2 by the image access unit 34, and performs a binarization process. In other words, the read pixel value is compared with a preset threshold value. If the target pixel value is greater than the threshold value, the binary output is set to “1” (black point), otherwise the binary output is set to “ 0 "(white dot).
  • the binary image memory 35 is a memory for storing an image binarized by the binarizing unit 33.
  • the all-image projecting unit 36 obtains vertical and horizontal projections of all the images for the binarized image stored in the binary image memory 35, and sets a value smaller than a preset threshold to “0”, Other projection values are left as they are.
  • Projection means integrating only the black pixels from the vertical and horizontal pixel columns and indicating the result as the projection value of the row or column.
  • FIG. 6 shows an example of the projection obtained from the original binary image by the all-image projection unit 36.
  • the threshold ⁇ to, for example, 3% of the maximum number of pixels to be added
  • Figure 6 shows the case where the reading range is larger than the original range.
  • the character string spacing, character spacing, and the width of the outside of the document in the image can be obtained.
  • 0 and m can be calculated from the horizontal projection.
  • (X0, Y0) to (Xm, Ym) are the scan range
  • (X ; 0, ⁇ '0) to ( ⁇ 'm, ⁇ 'm) are the document range. If the scan range and the document range are different, the area of the difference (the shaded area in Fig. 6) is an unnecessary area.
  • Information such as the unnecessary area range information, the scan start and end point information, and the document range is stored in the area determination information storage unit 3d.
  • the partial projecting unit 37 receives information such as the starting point of the mountain, the width of the mountain, the scanning range, and the document range in the vertical and horizontal projection from the whole image projecting unit 36. Then, from the information of each peak and the width of the vertical projection, the binary image corresponding to each peak is read from the binary image memory 35, and the horizontal projection is performed on the read image. Ask.
  • Neighboring connected component extraction unit 38, labeling 'grouping unit 40, coordinate calculation unit 43 calculates the coordinates of each character for specifying the position of the character for each character string as in the partial projection unit 37 I do.
  • the process for character extraction is performed in the same way as the partial projection unit 37, but here we pay particular attention to the fact that the pixels of the character are not necessarily connected. Even a single character is extracted as a plurality of objects.) However, one character area is extracted by obtaining a pixel connection component based on the pixel position in more detail than the partial projection unit 37.
  • FIG. 7A a binarized image of numbers “2” and “3” will be described as an example of a binarized image to be processed.
  • FIG. 7B labels are given to main pixels by the connected component extraction processing in the 8-neighbor connected component extraction unit 38, and labeling is performed.
  • the equalization groups are merged as shown in Fig. 7C, and based on the result, they are connected as shown in Fig. 7D.
  • the start point coordinates and end point coordinates of the pixel (physical block) are obtained.
  • the 8-neighbor connected component extraction unit 38 calculates a connected component of the pixel of interest.
  • FIG. 8A shows neighboring cells necessary for obtaining a connected component of the target pixel P. The following processing is performed to determine the connected component of the pixel P.
  • the coordinates of the pixel P to be processed are (7, 10), and at this point, the neighboring pixels A, B, and C shown in FIG.
  • a label value as shown in is given. Since the label value of the target pixel is “1”, the minimum label value other than “0” among the neighboring pixels, that is, “2” is set as the label value of the target pixel P.
  • the label value ⁇ 2 '' and ⁇ 3 '' are equivalent Is stored.
  • the label value and equivalent label information of each pixel are stored in the connected component information memory 39.
  • the labeling grouping unit 40 reads out the label value (connected component label data) and the equivalent label information (equivalent label data) of each pixel from the connected component information memory 39, and groups the labels that are equivalent to each other. Replace the label of the pixel with the new label as shown in Figure 7C.
  • the label information newly added to the grouped pixels is stored in the labeling information memory 41.
  • the labeling / grouping unit 40 scans the labeling information memory 41 and reads the minimum coordinates and the maximum coordinates having the same label. Since the same label indicates a physical block connected to one, the minimum coordinate is the start coordinate of the physical block and the maximum coordinate is the end coordinate of the physical block. These pieces of coordinate information are stored in the character coordinate extraction information memory 42.
  • the coordinate extraction unit 43 calculates the physical block stored in the character coordinate extraction information memory 42. Perform fusion.
  • the coordinates of one character composed of a plurality of connected components are calculated.
  • a physical block within the range of the average size L HMS from the starting point MK Z is set as one character. From the coordinates and data of each physical block to be merged, the smallest coordinate data is the start coordinate of the target character, and the largest coordinate data is the end coordinate of the character.
  • Physical block 1 (xsl, ysl), (xel, ye 1)
  • the feature amount calculated by the coordinate extraction unit 43 in this manner is written to the feature amount storage unit 3b according to the instruction of the CPU and according to the write address output from the feature amount access unit 32.
  • FIG. 9 shows an example of storage of the feature amounts in the feature amount storage unit 3b. For each physical block (object) corresponding to one character extracted by the coordinate extraction unit 43, the coordinates of the start point and The size (dimension) is stored as the characteristic amount of the physical block.
  • the features (scan range, document range, number of smart objects, starting point, size, etc.) extracted by the whole image projecting unit 36 and the partial projecting unit 37 are stored in the area judgment information storage unit 3d. It is memorized.
  • the feature quantity of the object stored in the feature quantity storage unit 3b is mainly the feature quantity of the image area in units of one character, and the feature quantity of the object stored in the area determination information storage unit 3d This is a feature amount of an image area that is broader than the feature amount stored in the feature amount storage unit 3b.
  • FIG. 10 shows the structure of the area determination unit 3c.
  • the feature amounts (starting point coordinates, size) of each object image in the document image are supplied from the feature amount storage unit 3b to the feature amount reading unit 51.
  • the area determination information reading section 52 includes determination information such as an unnecessary area, a scan range, and a document range from the area determination information storage section 3d, and a starting point and a size of each object (character) from the partial projection section 37. And so on.
  • the attribute determination and layout analysis unit 53 determines the attributes (character area, photograph area, etc.) of each object based on the information read by the feature amount reading unit 51 and the area determination information reading unit 52.
  • the attribute determination and layout analysis unit 53 identifies one or more image areas (each consisting of one or more objects) from the original image by integrating the collection of objects with the same attribute. I do.
  • this integration can be achieved by, for example, expanding the vertical and horizontal projection results shown in FIG. 6 by a predetermined distance in the vertical and horizontal directions, respectively. Then, the identification result is stored in the identification result storage unit 3e as shown in FIG.
  • the attribute is defined as a type of an image area such as a character area and a photograph area.
  • an area other than the image area to which such an attribute is added in the original image that is, an image area that does not include content is referred to as a blank area.
  • the blank area may be one of the attributes of the image area, and the range of the blank area may be stored in the identification result storage unit 3e.
  • Fig. 11 shows an example of storage of the area identification results in the identification result storage unit 3e.
  • the number of identified image areas, the coordinates and size of the start point, the attributes, and the like for each image area are shown.
  • the presence / absence of designation by the user described later is stored.
  • the area selecting section 4 presents the user with the identification result of the document image area in the image identifying section 3. For example, as shown in FIG. 12, the positions of the four image areas A, B, C, and D identified from the document image in the document image are provided to the user interface unit 7.
  • the identification result of the document image area in the image identification unit 3 is as shown in FIG.
  • the outline of the image area may be simply displayed in the document frame.
  • attribute information such as a character area and a photograph area may be displayed simultaneously (for example, within the outline of each image area).
  • the outline indicating the range of the extracted image area may be superimposed on the original image itself and displayed.
  • the attribute, range, and the like of each extracted image area may be displayed as character information.
  • the position information is transferred to the system via the interface controller 8 Input to the control unit 9.
  • the system control unit 9 stores the information in the system information storage unit 10 as designated coordinate values (X u, Yu) and supplies the information to the area selection unit 4.
  • the area selection unit 4 determines which image area the specified position belongs to, based on the specified coordinate values (Xu, Yu) and the position information of each image area as the identification result of the image identification unit 3. As shown in FIG. 13, the area selection unit 4 sets a user designation / non-designation flag of the designated image region in the identification result storage unit 3 e of the image identification unit 3 (sets it to “1”). .
  • FIG. 13 shows a case where the area B is specified.
  • the specified coordinates are in the image area of the original image
  • the image area including the designated coordinates is determined as the designated area (see point P1 in FIG. 12). For example, the luminance is changed and displayed so that the determined designated area can be distinguished from other areas.
  • the image area closest to the specified point selects the image area closest to the specified point. Just fine. For example, a plurality of image areas A, B, C, and D extracted from a document image are shown in the user interface unit 7 as shown in FIG. When the point P2 is specified by the user, the point P2 is located between the image areas A and B. Since the image area A is closest to the point P2 among these two image areas, the image area A is selected.
  • IXI indicates the absolute value of X.
  • the point P3 is located between the image areas B and D. Since the image area D is closest to the point P3 of the two image areas, the point P3 is determined. Region D is selected.
  • an image area including some content such as a character or a photograph is selected as an attribute by designating one point on a document image.
  • the present invention is not limited to this case. For example, if the designated coordinates are not inside the extracted image area, a non-image area containing no content in the original image based on the designated coordinate values, that is, a blank area A region may be selected. Next, an example of a method of selecting an image area in this case will be described.
  • the ability to select a blank area is a meaningful function when, for example, embedding a desired image in a free area that does not include content in a document image.
  • the point P2 exists in the blank area between the image areas A and B, so the blank area w1 between the image areas A and B is selected. Is done.
  • the starting point (Xp2S, Yp2S) and the ending point (Xp2E, Yp2E) of the rectangle of the blank area wl are calculated as follows, for example.
  • ⁇ ⁇ 2 S m a ⁇ (Y a S, Yb S) + ⁇
  • max (i, j) is a function that selects the maximum value of i and j
  • min (i, j) is a function that selects the first value of i and j.
  • ⁇ and ⁇ are offset values in the X direction and the y direction, respectively, and a default value may be set in advance by the system or may be set by a user.
  • the point P 3 is specified, the point P 3 exists in the blank area between the image areas B and D, so that the blank area w 2 between the image areas B and D Is selected.
  • the starting point (Xp 3 S, Yp 3 S) and the ending point (Xp 3 E, Yp 3 E) of the rectangle of the blank area w 2 are calculated as follows, for example.
  • point P4 is designated, unlike point P2 and point 3, point P4 is sandwiched between any two image areas A, B, C, and D. Does not exist in the position where it was. At this time, according to the above method, two blank areas w3 and w4 are extracted.
  • two or more areas may be selected. For example, when embedding information specified by the user from among the plurality of selected image areas, one image area that satisfies the conditions is automatically selected based on conditions such as the size of the image to be embedded. You may. In addition, a plurality of selected image areas are presented to the user via the user interface unit 7 so that the user can further select a desired image area.
  • the user interface unit 7 can be composed of various input / output devices such as a keyboard, a CRT, and a liquid crystal display (control panel) having a touch panel.
  • a keyboard a CRT
  • a liquid crystal display control panel
  • the user interface composed of a control panel will be described as an example.However, the present invention is not particularly limited to the control panel, and other input / output devices may be used without departing from the gist of the present invention. You may.
  • FIG. 16 shows a configuration example of the user interface unit 7 and the interface controller 8.
  • the user interface unit 7 mainly includes a control panel board 7a
  • the interface controller 8 mainly includes a control board 8a.
  • the controller port Rupaneru substrate 7 a composed of a liquid crystal display (LCD) 7 5, Tatsuchipaneru and various operation keys 7 7, control keys microcomputer 7 8 to recognize those pressing conditions.
  • Control key microcomputer 7 8
  • the microcomputer 82 is configured to control the information notified from the control key microcomputer 78 and the control board according to various control programs stored in the ROM 80 and RAM 79.
  • the ROM 80 stores display screen data, program data, and the like, and the RAM 79 stores screen switching time and the like.
  • the RAM 79 stores, for example, information necessary for displaying each image area transmitted from the area selection unit 4 or other parameters. Further, the image area information is stored in the system information storage unit 1 via the system control unit 9 in FIG.
  • the control board 8a mainly controls the LCD 75 and the touch panel 77, and controls the motor drive and the like according to the situation.
  • the control board 8a also detects a jam, a toner shortage, etc. from signals from a paper sensor, a waste toner sensor, a toner density sensor, and the like, and sounds the buzzer # 6 on the control panel as necessary.
  • the liquid crystal controller 81 transmits a display control signal to the LCD 75 based on a signal from the microcomputer 82, and thereby, a graphics display is performed.
  • the image processing unit 5 performs the processing specified by the user on the image area selected by the area selection unit 4. An example of the image processing will be described below.
  • Image editing There are various ways to edit an image. One of them is to cut out a selected image area and enlarge it. At that time, for example, an enlargement process based on a generally used linear interval may be performed.
  • Other editing functions include changing the color in the selected area to another color (changing black to red), as in a normal word processor, etc., and hollowing out or italicizing characters in the area.
  • Various general editing functions digital image processing) such as text conversion may be used.
  • Image Replacement This is the process of replacing the selected area with some data that is subsequently input. For example, from the coordinates of the start point and end point of the image area and the start point and end point coordinates of the data to be replaced, it is determined whether the replacement data is to be reduced or enlarged. Perform replacement.
  • Hidden information and key information can be embedded in the image area in an invisible state. The information is not embedded in the entire document but in the area specified by the user. Since the information embedding process is not the gist of the present invention, the description is omitted.
  • the specified area is a blank area
  • the image is scaled based on the area of the blank area and the size of the information to be embedded, and then the image is embedded.
  • the user may select a desired processing through the user interface unit 7.
  • the entire original image including the image in the image area processed by the image processing unit 5 is temporarily stored in the output image storage unit 6.
  • the output image storage unit 6 is for temporarily storing an image output via the image output unit 11.
  • a function as a page memory is required.
  • a line buffer function of only a few lines is required.
  • the image output unit 11 outputs an image stored in the output image storage unit 6, and is composed of, for example, a printer that prints on paper.
  • the system control unit 9 controls the entire system according to the present invention, and includes a CPU and other peripheral devices.
  • the system control unit 9 supplies a timing signal, a clock signal, a control signal, and processing parameters to the above units.
  • the system information storage unit 10 stores data, programs, and the like necessary for the entire system. External interface
  • the external interface unit 12 sends the image area processed by the image processing unit 5 or the entire original image including the processed image area to the outside via an arbitrary communication line.
  • an arbitrary communication line For example, a fax modem using a telephone line, or an interface for a specific network connection.
  • the image forming apparatus In a system in which the image forming apparatus according to the present embodiment is connected to a plurality of image forming apparatuses via the external interface unit 12 and the network, at least one of the plurality of image forming apparatuses is connected to the image output unit 1 Just having 1 is a sufficiently effective system. That is, an image forming apparatus not having the image output unit 11 (in this case, referred to as an image processing apparatus) applies a desired processing to the selected area, and then outputs the image output unit 11. A form in which the image data is transmitted to another provided image forming apparatus via the external interface unit 12 and printed out is possible. Processing operation
  • step S1 When an image of a document to be processed is input from the image input unit 1, the image is temporarily stored in the input image storage unit 2 (step S1).
  • the original image stored in the image storage unit 2 is identified by the image identification unit 3 (step S 2), and the identification result is displayed on the user interface unit 7.
  • step S3 each image area identified from the original image is also displayed (step S3 to step S4).
  • step S5 When at least one point is designated by the user based on the displayed contents (step S5), the area selecting section 4 selects an image area corresponding to the coordinates of the point and sets the selected image area to the user. It is specified to the user via the interface unit 7 (step S6).
  • Step S7 If the user interface unit 7 has a key for inputting an instruction such as “confirm” or “cancel” for the selected image area, the subsequent processing is executed according to the key input (Ste S7). For example, when the key input of "confirm” is received (in the case of Yes), the processing proceeds to the selection and execution processing of the processing for the selected image area (Exit). On the other hand, when the key input of "cancel” is received (in the case of No), the process returns to the step S3 to repeat the above processing.
  • the original image is Each area on the image can be easily specified (for example, one-touch specification), and the specified image area can be displayed. If the specified image area requires any modification, the user can specify the modification, display the modified image configuration, etc., and then modify the specified image area.

Description

明細書 画像領域指定機能を有する画像処理装置 技術分野
本発明はデジタル複写機等の画像形成装置に関し、 特に画像内の特定領域を指 定し処理する技術に関する。 従来の技術
従来、 デジタル複写機等のスキャナにて読み取られた原稿上画像において画像 編集、 画像埋め込みなどの画像加工を行う際には、 ユーザから少なくとも 2点以 上の座標を指定されることにより定められる画像領域に対しユーザ指定の画像加 ェ処理を行っていた。
このような従来の画像領域の指定方法では、 所望の画像領域を指定する際、 座 標は正確に指定する必要があり、 指定する画像領域の形状によっては容易ならぬ 労力と時間をかける場合もあり、 ユーザにとっては不便であった。
また、 座標を指定する代わりに、 例えば所望の画像領域を予め原稿上にマーカ 一ペンで指定しておいて、 スキャナにて原稿を読取り、 その指定された画像領域 を認識する方法もある。 しかしこの場合でも、 原稿が複数枚ある場合に、 そのそ れぞれについていちいち手作業で画像領域を指定するのは、 ユーザにとって手間 がかかる処理である。 発明の開示
本発明は、 読み取られた原稿画像の画像識別結果に基づき、 ユーザが容易に特 定画像領域を指定 (例えばワンタッチ指定) できる領域指定方法、 及び指定され た画像領域に対し加工を施す画像処理装置および画像形成装置を提供することを 目的とする。
上記目的を達成するために本発明の画像処理装置は、 入力された原稿画像デー タから原稿画像内の複数の画像領域を判定する領域判定手段と、 前記領域判定手 段で判定された画像領域の前記原稿画像中の位置を表示する表示手段と、 前記表 示手段により表示された内容に基づき、 少なくとも 1点を指定するための指定手 段と、 前記指定手段により指定された位置の座標と前記画像領域の位置とに基づ き前記指定された位置に対応する画像領域を指定領域として決定する決定手段と、 前記決定手段で決定された指定領域の画像に対して画像処理を施す画像処理手段 を具備する。
上記領域判定手段は、 判定した前記複数の画像領域の間に存在する 1つ以上の 非画像領域を判定する。 上記決定手段は前記指定された位置が前記領域判定手段 により判定された前記非画像領域内にある場合、 その非画像領域を前記指定領域 として決定する。 上記表示手段は前記決定手段により決定された指定領域を他の 画像領域と区別できるように、 例えば輝度を変更して表示する。
上記表示手段は領域判定手段により判定された各画像領域の輪郭を前記原稿画 像の原稿枠内の対応する位置に表示する。
上記領域判定手段は、 前記原稿画像を構成する各オブジェク トの位置及ぴサイ ズを算出し特徴量として提供する手段と、 前記特徴量を基に、 同一属性のォブジ ェクトの集まりを各々統合することにより、 複数の画像領域を判定する手段を有 する。 図面の簡単な説明
図 1は本発明の実施形態に係る画像形成装置の構成を示したプロック図。 図 2 A〜 2 Cは画像入力部の画像入力動作を説明するための図。
図 3は入力画像記憶部の記憶例を示す。
図 4は画像識別部の構成例を示したプロック図。
図 5は図 4の特徴量算出部の構成例を示したプロック図。
図 6は図 5の全画像射影部による射影を説明するための図。
図 7 A〜7 Dは 図 5の 8近傍連結成分抽出部、ラベリング'グルーピング部、 座標算出部における処理動作を説明するための図。 図 8 A及ぴ 8 Bは図 5の 8近傍連結成分抽出部の処理動作を説明するための 図。
図 9は図 4の特徴記憶部における特徴量の記憶例を示した図。
図 1 0は図 4の領域判定部の構成例を示したプロック図。
図 1 1は図 4の識別結果記憶部の記憶例を示した図。
図 1 2は図 1のユーザインターフェース部における識別結果の表示と、 画像 領域の指定方法を説明するための図。
図 1 3は画像領域が指定されたときの識別結果記憶部に記憶される画像領域 情報の例を示した図。
図 1 4は画像領域の指定および選択方法について説明するための図。
図 1 5は画像領域および空白領域を選択する動作を説明するための図。
図 1 6はコント口ールパネル及ぴィンターフェースコントローラの構成例を 示す。
図 1 7は図 1の画像形成装置の処理動作の概略を示したフローチヤ一ト。 発明を実施するための最良の形態
以下、 本発明の実施形態について、 図面を参照して説明する。
図 1は、 本実施形態に係る画像形成装置の構成例を示す。 この画像形成装置は、 例えばスキャナから構成され原稿上の画像を読み取って入力する画像入力部 1と、 この画像入力部 1で入力した画像を一時的に蓄えるための入力画像記憶部 2と、 入力画像の特徴量を算出して属性を識別する画像識別部 3と、 ユーザによる指示 に従って画像領域を選択する領域選択部 4と、 選択された画像領域に対応する画 像を入力画像記憶部 2から切り出し、 それにユーザにより指示された加工を施す 画像加工部 5と、 加工された画像を一時的に蓄えるための出力画像記憶部 6と、 ユーザからの指示やユーザへの結果表示などを行うためのユーザィンターフェ一 ス部 7と、 ユーザインターフェース部 7を制御するコントローラ部 8と、 装置を 総合的に制御するためのシステム制御部 9と、 入力情報や処理情報または出力情 報などを蓄えるためのシステム情報格納部 1 0と、 加工した画像を出力するため の画像出力部 1 1を含む。 さらにこの装置は、 任意のネットワークに接続するた めの外部インターフェース部 1 2を具備していてもよい。 例えば、 外部インター フェース部 1 2にて接続された公衆網、 LAN等の任意のネットワークを介して 画像加工部 5にて加工された画像を外部に出力することができる。
以下に上記各構成部の詳細を説明する。
画像入力部
画像入力部 1は、 例えばスキャナなどの入力機器を含み、 画像データを画像形 成装置に入力するためのものである。 例えば、 1 0画素/ mm、 8ビット/画素 のスキャナを入力機器とした場合、 入力対象原稿上の情報を l mm当たり 1 0画 素 (0. l mmピッチ) の間隔でサンプリングする。
図 2は、 原稿をサンプリングして得られた情報の対応を説明するためのもので、 例えば A3 (42 OmtnX 2 97mm) の原稿を 0. l mmピッチでサンプリン グする場合を示している。
図 2 Aに示すように、 サンプリング後の画素数は (4200 X 29 70) とな り、 1画素あたり 256階調とすると、 約 1 2Mバイトのデータとなる。 図 2 A に示す原稿上の左上のコーナ一を原点として X方向 (横方向) に 40 mm, Y方 向 (縦方向) に 40 mmのところに、 図 2 Bに示すような 4 mm X 4 mm寸法の 文字があるとすると、 サンプリング後、 図 2 Cに示すように、 その文字の始点座 標は (400、 400) となり、 終点座標は (43 9、 43 9) となる。 サンプ リングは図 2 Cに示す面積 S単位で行われ、 その値をその座標の画素値とする。 例えば、 縦方向 4 1. 9 mm、 横方向 40. 1 mmの位置でのサンプリング面積 Sにおけるサンプリング値が 220の場合、 この値を座標 (4 1 8、 400) の 画素値とする。
図 3に、 サンプリングの結果得られた画素の座標と画素値の対応例を示す。 なお、 図 2、 図 3では、 サンプリング周波数が 1 0本 Zmmの場合を例にとり 説明をしたが、 それ以外の周波数のサンプリングも同じ原理に基づいて行われる。 入力画像記憶部 入力画像記憶部 2は、 サンプリングの結果得られた画素の座標に対応するァド レスに、 その画素の画素値を例えば、 図 3に示しように記憶する。 各画素値はそ の座標における画素の濃度を表す。 ここでは画素が黒いほど画素値が高い。 画像識別部
図 4は、 画像識別部 3の構成例を示したもので、 特徴量算出部 3 aと、 特徴量 記憶部 3 bと、 領域判定部 3 cと、 領域判定情報記憶部 3 dと、 識別結果記憶部 3 eとから構成される。
図 5は、 特徴量算出部 3 aの構成例を示したものである。 制御部 3 1は特徴量 算出部 3 aの処理動作全体の制御を司るものである。 特徴量アクセス部 3 2は原 稿画像に基づき算出された特徴量を図 4の特徴量記憶部 3 bに記憶するためのァ ドレスと制御信号等を生成するものである。 画像アクセス部 3 4は、 図 1の入力 画像記憶部 2から原稿画像を読み出すためのァドレスと制御信号等を生成するも のである。
2値化部 3 3は、 画像ァクセス部 3 4にて入力画像記憶部 2から読み取られた 画像データを受けとり、 2値化処理を行う。 つまり、 読みとつた画素値を予め設 定された閾値と比較し、 対象画素値が閾値より大きレヽ場合は 2値化出力を 「 1」 (黒点) とし、 それ以外は 2値化出力を 「0」 (白点) とするものである。
2値画像メモリ 3 5は、 2値化部 3 3によって 2値化された画像を記憶するメ モリである。
全画像射影部 3 6は、 2値画像メモリ 3 5に記憶された 2値化画像を対象に、 その全画像の縦横の射影を求め、 予め設定された閾値より小さい値を 「0」 にし、 それ以外の射影値をそのまま残す。 射影とは、 縦横の画素の列から黒画素のみを 積算してそれをその行や列の射影値として示すことである。
図 6は、 全画像射影部 3 6で原稿 2値化画像から得られる射影の一例を示した ものである。 閾値 ^を適当に、 例えば加算される最大画素数の 3 %に設定すること により、 原稿 2値化画像内の様々な情報が得られる。 図 6は、 読み取り範囲が原 稿範囲より大きい場合を示したもので、 縦横射影から、 それぞれの各山の開始座 標 (縦方向は Ty i ( i = 1、 2、 ···、 Ny) 、 横方向は T x j ( j = 1、 2、 3、 ···、 Nx) ) 、 射影の各山の幅 (縦方向は ATy i ( i = l、 2、 ···、 Ny) 、 横方向は ΔΤ χ j ( j = 1、 2、 3、 ···、 Nx) ) を求めることにより、 原稿 2 値化画像内の例えば、 文字列間隔、 文字間隔、 原稿の外側の幅などを求めること ができる。
ここで、 スキャン範囲から原稿範囲を算出する方法の一例を説明する。 スキヤ ンの開始値 (XO = 0、 YO = 0) 、 最終値 (Xm、 Ym) のとき、 原稿範囲の 開始値 (X' 0、 Y' 0) および最終値 (X, m、 Y' m) を求める。
縦方向射影の第 1番目の山の開始点座標 Ty 1が 「0」 のとき、
Ύ1 · 0 =Y 0 + ΔΤ y 1
T y 1≠ 0のとき
Υ' 0 = Υ 0
となる。 縦方向の最後の山の開始点に、 その最後の山の幅 Δ T y ηを加算した値 が Ymのとき、 すなわち、 (T y η + Δ T y n =Ym) であれば
Y; m = Y m— Δ T y η
となり、 (T y η + ΔΤ γ n≠Ym) の場合は
Υ' m = Ym
となる。
同様にして、横方向の射影から 0と mの計算ができる。 (X 0、 Y 0) 〜 (Xm、 Ym) がスキャン範囲で、 (X; 0、 Ύ' 0) 〜 (Χ' m、 Ύ' m) が原稿範囲である。 スキャン範囲と原稿範囲とが異なる場合は、 その差分の領域 (図 6の斜線部) は不要領域である。 この不要領域の範囲情報、 スキャンの始点、 終点情報、 原稿範囲等の情報は、 領域判定情報記憶部 3 dに記憶される。
部分射影部 3 7は、 全画像射影部 3 6から縦横射影における山の開始点、 山の 幅、 スキャン範囲、 原稿範囲などの情報を受ける。 そして、 縦方向の射影の各山 とその幅の情報から、 その各山に対応する 2値画像を 2値画像メモリ 3 5から読 み出し、 その読み出された画像に対し横方向の射影を求める。
部分射影により縦射影の各山についての横方向射影の山の部分(オブジェクト) の数、 各オブジェクトの開始点、 サイズを領域判定記憶部 3 dに記憶し、 又、 各 オブジェクトの開始点 MK Z、 及び平均サイズ (横方向の射影の各山の幅の平均 値で、 主に、 文字サイズの平均値とみなされる) L HM S等を座標抽出部 4 3に 送る。
8近傍連結成分抽出部 3 8、 ラベリング 'グルーピング部 4 0、 座標算出部 4 3では、 文字の位置を特定するための各文字の座標を部分射影部 3 7と同様に文 字列ごとに算出する。 部分射影部 3 7と同様に文字抽出のための処理を行うわけ であるが、 ここでは、 特に、 文字の画素が必ずしも連結されていないといことに 着目して (従って、 射影を求めるだけでは、 1つの文字であっても複数のォプジ ェクトとして抽出されてしまう) 、 部分射影部 3 7よりもより詳細に画素の存在 位置に基づき画素連結成分を求めて 1文字領域を抽出する。
図 7を参照して、 8近傍連結成分抽出部 3 8、 ラベリング 'グルーピング部 4 0、 座標算出部 4 3の処理手順の概略を説明する。 ここでは、 図 7 Aに示すよう に、 処理対象の 2値化画像として、 数字の 「2」 と 「3」 を 2値化したものを例 にとり説明する。 図 7 Aに示したような 2値化画像は、 まず、 8近傍連結成分抽 出部 3 8における連結成分抽出処理により、 図 7 Bに示すように主要な画素にラ ベルが与えられ、 ラベリング ·グルーピング部 4 0では、 各画素に与えられたラ ベルに基づき、 図 7 Cに示したように等化グループの融合等を行い、 その結果に 基づき、 図 7 Dに示すように連結された画素 (物理ブロック) の始点座標と終点 座標が得られる。
8近傍連結成分抽出部 3 8では、 注目画素の連結成分を算出する。 例えば、 図 8 Aに、 注目画素 Pの連結成分を求めるに必要な近傍セルを示す。 画素 Pの連結 成分を求めるには以下の処理を行う。
'画素 Pの画素値が 「0」 のとき、 画素 Pのラベルを 「0」 とする。
-画素 Pの画素値が 「1」 で、 すでに処理されている近傍画素 A、 B、 Cと D のラベルが全て 「0」 であれば、 画素 Pに新しいラベルを付ける。
'画素 Pの画素値が 「1」 で、 画素 A、 B、 C、 Dのうち 1つでも 「0」 以外 のラベルを持つものがあるならば、 その 「0」 以外のラベルのうちの 1つを選び、 (例えば l番小さいラベル) 、 それを画素 Pのラベルとすると同時に、 「0」 以 外のラベルを持つ全てのラベルが等化であることを記録しておく。
例えば、 図 7 Bに示す様に、 処理対象画素 Pの座標が (7、 1 0 ) とし、 この 時点で、 図 8 Aに示す近傍画素 A、 B、 Cが既に処理されて、 図 8 Bに示すよう なラベル値が与えられているとする。 対象画素のラベル値は 「1」 なので、 近傍 画素の中から 「0」 以外の最小のラベル値、 すなわち、 「2」 を対象画素 Pのラ ベル値とする。 さらに、 近傍画素の中にはラベル値が 「0」 以外に 「2」 、 「3」 が与えられた画素が存在するため、 ラベノレ値 「2」 とラベル値 「3」 が等価であ ることが記憶される。
各画素のラベル値と等価ラベル情報は、 連結成分情報メモリ 3 9に記憶される。 ラベリング .グルーピング部 4 0は、 連結成分情報メモリ 3 9から各画素のラ ベル値 (連結成分ラベルデータ) と等価ラベル情報 (等価ラベルデータ) を読み 出し、 等価であるラベルをグルーピングし、 そのグルーピングされた画素のラベ ルを図 7 Cに示したように新しいラベルに置き換える。 このグル一ピングされた 画素に新たに付されたラベル情報は、 ラベリング用情報メモリ 4 1に記憶される。 その後、 ラベリング · グルーピング部 4 0は、 ラベリング情報メモリ 4 1をス キャンし、 同じラベルを持つ最小座標と最大座標を読みとる。 同じラベルのもの は 1つに連結された物理ブロックを表すので、 最小座標はその物理プロックの始 点座標、 最大座標はその物理ブロックの終点座標となる。 これらの座標情報が文 字座標抽出用情報メモリ 4 2に記憶される。
座標抽出部 4 3は、 部分射影部 3 7からオブジェク トの平均サイズ L HM Sと 各ォブジェク トの始点 M K Zをもとに、 文字座標抽出用情報メモリ 4 2に記憶さ れている物理プロックの融合化を行う。 この処理により例えば複数の連結成分か らなる 1つの文字の座標が算出される。 この処理では始点 MK Zから平均サイズ L HM Sの範囲内にある物理プロックを 1つの文字とするものである。 融合され る各々の物理プロックの座標、 データから一番小さい座標データは対象文字の始 点座標であり、 一番大きい座標データはその文字の終点座標となる。
例えば、 物理ブロック 1 (x s l、 y s l) 、 (x e l、 y e 1 )
物理プロック 2 (x s 2、 y s 2) 、 (x e 2、 y e 2) が融合されるとすると、 融合された物理ブロックの始点 (x s、 y s ) と終点座 標 (x e、 y e) 、 物理ブロックのサイズ (Δχ、 Ay) は以下のようになる。
s =m i n 、x s l、 s 2 )
y s =m i n (y s l、 y s 2 )
x e = m a x (x e l、 x e 2 )
y e =m a x (y e l、 y e 2 )
Δ x = x e— x s
Δ y = y e— y s
以上の処理を文字列毎にすべての文字列に対して行い、 ドキュメント内のすべ ての文字の座標値または対応するサイズ (Δχ、 Ay) を算出する。 しかし、 ス キャン範囲の開始点、 終了点、 原稿範囲の開始点や終了点を座標値とする物理プ 口ックは、 その他の物理ブロックと融合しない。
このようにして座標抽出部 43で算出された特徴量は C P Uの指示に従って、 特徴量アクセス部 3 2から出力される書込ァドレスに従って、 特徴量記憶部 3 b に書き込まれる。 図 9は、 特徴量記憶部 3 bの特徴量の記憶例を示したもので、 座標抽出部 43で抽出された 1文字に相当する物理ブロック (オブジェク ト) 毎 に、 その開始点の座標とサイズ (寸法) とが該物理ブロックの特徴量として記憶 さ†Lている。
一方、 全画像射影部 3 6およぴ部分射影部 3 7で抽出された特徴量 (スキャン 範囲、 原稿範囲、 才ブジェク トの数、 開始点、 サイズ等) は領域判定情報記憶部 3 dに記憶される。
特徴量記憶部 3 bに記憶されるオブジェク トの特徴量は、 主に、 1文字単位の 画像領域の特徴量であり、 領域判定情報記憶部 3 dに記憶されるオブジェタ トの 特徴量とは、 特徴量記憶部 3 bに記憶される特徴量より大まかな画像領域の特徴 量である。
次に図 4の領域判定部 3 cについて説明する。 図 1 0は、 領域判定部 3 cの構 成例を示したもので、 特徴量記憶部 3 bから原稿画像内の各ォブジェクト画像の 特徴量 (始点座標、 サイズ) が特徴量読み取り部 5 1に供給される。 領域判定情 報読み取り部 5 2は、 領域判定情報記憶部 3 dから不要領域、 スキャン範囲、 原 稿範囲等の判断情報や、 部分射影部 3 7から各オブジェクト (文字) の始点、 サ ィズ等を読み出す。
属性判定及びレイァゥト解析部 5 3は、 特徴量読み取り部 5 1、 領域判定情報 読み取り部 5 2により読みとられた情報に基づき、 各オブジェクトの属性 (文字 領域、 写真領域等) を判定する。 又、 属性判定及びレイアウト解析部 5 3は、 同 一属性の付されたォブジェクトの集まりを統合することにより、 原稿画像から 1 または複数の画像領域 (各々 1つ又は複数のオブジェクトからなる) を識別する。 又は、 この統合は例えば図 6で示した縦及び横方向射影結果をそれぞれ縦及び横 方向に所定距離膨張することにより達成できる。 そして、 識別結果は、 識別結果 記憶部 3 eに図 1 1に示すように記憶される。
上記属性とは、 文字領域、 写真領域のような画像領域の種別と定義される。 以 後、 原稿画像内でこのような属性の付された画像領域以外の領域、 すなわち、 コ ンテンッを含まない画像領域を空白領域と呼ぶ。 なお、 空白領域を画像領域の属 性の 1つとして、 その空白領域の範囲を識別結果記憶部 3 eに記憶するようにし てもよい。
図 1 1は、 識別結果記憶部 3 eの領域識別結果の記憶例を示したもので、 識別 された画像領域の数、 各画像領域毎に、 その開始点の座標とサイズ、 属性、 さら に、 後述のユーザによる指定の有無が記憶されている。 領域選択部
領域選択部 4は、 画像識別部 3における原稿画像領域の識別結果をユーザに提 示する。 例えば、 図 1 2に示すように、 原稿画像から識別された 4つの画像領域 A、 B、 C、 Dの原稿画像中における位置を、 ユーザインターフェース部 7に提 供する。
画像識別部 3における原稿画像領域の識別結果は図 1 2に示すように、 図 1 0 の属性判定及びレイァゥト解析部 53により抽出された画像領域の位置情報に基 づき、 その画像領域の輪郭のみを原稿枠内に表示するだけてもよい。 さらに、 文 字領域、 写真領域等の属性情報も同時に (例えば、 各画像領域の輪郭内に) 表示 してもよい。 また、 原稿画像そのものに抽出された画像領域の範囲を示す輪郭を 重ね合わせて表示するようにしてもよい。 さらに、 図 1 1に示したように、 抽出 された各画像領域の属性、 範囲等を文字情報で表示してもよい。
ユーザィンターフェース部 7により示された原稿画像の画像領域識別結果に基 づいて、 ユーザが処理したい画像領域の一点 P 1を指定すると、 インターフエ一 スコントローラ 8経由で、 その位置情報がシステム制御部 9に入力される。 シス テム制御部 9はその情報を指定座標値 (X u、 Yu) としてシステム情報格納部 1 0に格納すると共に、 領域選択部 4に供給する。
領域選択部 4は、 指定座標値 (Xu、 Yu) と画像識別部 3の識別結果として の各画像領域の位置情報をもとに、 指定位置がどの画像領域に属するかを決定す る。 領域選択部 4は、 図 1 3に示すように、 画像識別部 3の識別結果記憶部 3 e 内で、指定された画像領域のユーザ指定/非指定フラグをたてる (" 1"にする)。 図 1 3では、 領域 Bが指定された場合を示している。
ユーザにより指定された 1点 (Xu、 Yu) からそれに対応する画像領域を決 定する方法の一例を説明する。 すなわち、 原稿画像中の各画像領域の始点を (X i s、 Y i s;) 、 サイズを (ΔΧ i、 ΔΥ i ) とすると、
条件: ( (Y i s≤Yu) a n d (X i s Xu) ) かつ
( (Y i s +ΔΥ i ) ≥Yu) a n d ( (X i s +ΔΧ i ) ≥Xu) ) を満たす場合、 指定された座標は原稿画像中のレ、ずれかの画像領域内に存在する ので (図 1 2の点 P 1参照) 、 その指定された座標を含む画像領域が指定領域と して決定される。 決定された指定領域は他の領域とは区別できるように、 例えば 輝度が変更されて表示される。
ユーザインターフェース部 7のディスプレイの性能や大きさ、 または入力方法 によって、 必ずしも原稿画像中のいずれかの画像領域の内部点を指定することが できない場合は、 指定点から一番近い画像領域を選択すればよい。 例えば、 原稿画像中から抽出された複数の画像領域 A、 B、 C、 Dは、 図 1 4 に示すようにユーザィンターフェース部 7に示される。 ユーザにより点 P 2が指 定されたとき、 点 P 2は、 画像領域 Aと Bとの間に位置し、 この 2つの画像領域 のうち画像領域 Aが点 P 2に最も近いので、 画像領域 Aが選択される。
すなわち、 点 P 2の座標 (X p 2、 Yp 2) 、 画像領域 Αの始点 (X a S、 Y a S) 、 サイズ (AX a、 ΔΥ a) 、 画像領域 Βの始点 (X b S、 Y b S) 、 サ ィズ (AXb、 AYb) 、 画像領域 Cの始点 (X c S、 Yc S) 、 サイズ (ΔΧ c、 Δ Y c ) 、 画像領域 Dの始点 (Xd S、 Yd S) 、 サイズ (AX d、 Δ Y d ) とすると、 画像領域 Αの終点は (X a S + AX a=X a E、 Y a S + AYa =Y a E) 、 画像領域 Bの終点は (X b S +ΔΧ b =X b E、 Y b S +Δ Y b =Y b E) 、画像領域 Cの終点は (X c S + ΔΧ c =X c EN Y c S +ΔΥ c =Y c E) 、 画像領域 Dの終点は (Xd S + AXd=Xd E、 Y d S + ΔΥ d d E) とな る。
(Ya S、 Yb S) < Y p 2
(Y a E、 Y b E) > Y p 2
(Y c S, Yd S) > Y p 2
であるため点 P 2は、 画像領域 Aと Bの問にあると判断できる。
また、 I (X a S - X p 2) Iと I (X a E-X p 2) | と | (X b S— X p 2) Iと I (X b E-X p 2) Iのうち、 I (X a E-X p 2) | が最小値であ るため、 画像領域 Aが点 P 2に一番近いと判断され、 画像領城 Aが選択される。 ここで I X Iは Xの絶対値を示す。
ユーザにより、 点 P 3が指定されたとき、 点 P 3は、 画像領域 Bと Dとの間に 位置し、 この 2つの画像領域のうち画像領域 Dが点 P 3に最も近いので、 画像領 域 Dが選択される。
すなわち、 点 P 3の座標 (Xp 3、 Ύρ 3) は、
(Xb S、 X d S) <X p 3
(X b E、 X d E) >X p 3
(X a E、 X c E) <X p 3 であるため、 点 P 3は画像領域 Bと Dの間にあると判断できる。
また、 I (Yb S— Yp 3) Iと I (Yb E— Yp 3) | と | (Yd S— Yp 2) Iと I (Yd E— Yp 3) Iのうち、 I (Yd S—Yp 3) |が最小値であ るため画像領域 Dが点 P 3に一番近いと判断され、 画像領域 Dが選択される。 同様して、 点 P 4が指定されたとき、 画像領域 A、 B、 C、 Dのうち、 点 P 4 から一番近い画像領域 Cが選択される。
以上は、 原稿画像上の 1点を指定することにより、 属性として文字あるいは写 真といった何らかのコンテンツを含む画像領域を選択する場合について説明され た。 しかし、 この場合に限らず、 例えば指定された座標が、 抽出された画像領域 の内部にない場合、 その指定された座標値に基づき原稿画像中のコンテンツを含 まない非画像領域、 すなわち、 空白領域を選択するようにしてもよい。 次に、 こ の場合の画像領域の選択方法の一例を説明する。
空白領域が選択できるということは、 例えば、 原稿画像中のコンテンツを含ま ない空き領域に所望の画像を埋め込む場合に有意義な機能である。
例えば、 図 1 5に示すように、 原稿画像中から抽出された複数の画像領城 A、 B、 C、 Dがユーザインタ一フェース部 7に示されていると仮定する。 ユーザに より点 P 2が指定されると、 点 P 2は、 画像領域 Aと Bとの間にある空白領域内 に存在するため、 画像領域 Aと Bとの間の空白領域 w 1が選択される。 例えば、 空白領域 wlの矩形の始点 (X p 2 S, Y p 2 S) と終点 (X p 2 E、 Yp 2 E) は、 例えば、 次のように算出される。
X ρ 2 S =X a Ε + ΔΜχ
X ρ 2 Ε = Χ b S -ΔΜχ
Υ ρ 2 S =m a χ (Y a S、 Yb S) +ΔΜγ
Y ρ 2 S =m i n (Y a E、 Y b E) -AMy
ここで、 ma x ( i、 j ) は i と jのうちの最大値を選ぶ関数で、 m i n ( i、 j ) は i と jのうちの最初値を選ぶ関数である。 また、 ΔΜχ、 ΔΜγはそれぞ れ X方向、 y方向のオフセット値でシステムによって予めディフォルト値が設定 されていてもよいし、 ユーザにより設定するようにしてもよい。 同様にして、 点 P 3が指定されたとき、 点 P 3は、 画像領域 Bと Dとの間にあ る空白領域内に存在するため、 画像領域 Bと Dとの間の空白領域 w 2が選択され る。 例えば、 空白領域 w 2の矩形の始点 (Xp 3 S、 Yp 3 S) と終点 (Xp 3 E、 Yp 3 E) は、 例えば、 次のように算出される。
X p 3 S =m a x (Xb S、 X d S) +ΔΜχ
X p 3 E=m i n (Xb E、 X d E) -ΔΜχ
Yp 3 S = Y b Ε + ΔΜγ
Yp 3 E = Y d S -AMy
さて、 点 P 4が指定されたとき、 点 P 4は、 前述の点 P 2、 点 3の場合と異な り、 画像領域 A、 B、 C、 Dのうちいずれか 2つの画像領域に挟まれた位置には 存在しない。 このとき、 上記の手法に従えば、 2つの空白領域 w 3、 w4が抽出 される。
空白領域 w 3 :
X p 4 S =m i n (X a S、 X c S ) + ΔΜχ
X p 4 E = m a x (Xb E、 X d E) - ΔΜχ
Y p 4 S =m a x (Y a E、 Y b E) +AMy
Y p 4 E = m i n (Y c S、 Y d S) 一 AMy
空白領域 w 4 :
X ρ 4 S =m a x (X a E、 X c E) +ΔΜχ
X p 4 E =m i n (X b S、 X d S) —厶 Mx
Y p 4 S = m a x (Y a S、 Y b S) +AMy
Y p 4 E = m i n (Y c E、 Y d E) 一 AMy
このように、 指定点の位置によっては、 2つ以上の領域が選択されることもあ る。 この選択された複数の画像領域のうち、 例えば、 ユーザにより指定された情 報を埋め込む場合、 その埋め込む画像の大きさなどの条件に基づき自動的にその 条件に適合する画像領域を 1つ選択してもよい。 また、 選択された複数の画像領 域をユーザィンターフェース部 7を介してユーザに提示し、 ユーザによる所望の 画像領域を更に選択するよう ユーザィンターフェース部
ユーザインターフェース部 7は、 キーボード、 C R T , タツチパネルを具備し た液晶表示器 (コント口一ルパネル) 等、 様々な入出力機器により構成できる。 ここではコント口ールパネルで構成されたユーザィンターフェースを例にとり説 明するが、 本発明は、 特にコントロールパネルに限定するものではなく、 本発明 の要旨を逸脱しない限り他の入出力機器を用いてもよい。
図 1 6はユーザインタフェース部 7及びインタ一フェースコントロ—ラ 8の構 成例を示したものである。 ユーザインターフェース部7は主にコント口ールパネ ル基板 7 aから構成され、 ィンタ一フェースコントローラ 8は主に制御基板 8 a から構成されている。
コント口ールパネル基板 7 aには、 液晶表示器 (L C D) 7 5、 タツチパネル や各種操作キ一 7 7、 それらの押下状況を認識するための制御キーマイコン 7 8 から構成される。 制御キーマイコン 7 8は、 押下状況を制御基板 8 aのマイコン
8 2に送信する。 マイコン 8 2は、 R OM 8 0、 R AM 7 9に格納された各種制 御プログラムに従って、 制御キーマイコン 7 8から通知される情報や、 制御基板
8 aに接続されている紙センサー9 2、 トナー濃度センサ一9 5等の様々なセン サからの情報を処理し、 処理結果を液晶コン トロ一ラ 8 1を介して L C D 7 5に 表示する。
R O M 8 0には表示画面のデータやプログラムデータ等が記憶され、 R AM 7 9には画面切り替え時間等が記憶されている。 また、 R AM 7 9には例えば領域 選択部 4から送られた各画像領域を表示するために必要な情報、 あるいはその他 のパラメータなどが格納される。 さらに図 1のシステム制御部 9を通して、 画像 領域情報はシステム情報格納部 1◦に格納される。
原稿画像内から抽出された画像領域を表示するために必要な情報は、 マイコン 8 2の制御のもと、 R AM 7 9から読み出され、 その情報を基に表示画面データ が作成される。 表示画面データは液晶コントローラ 8 1を介して L C D 7 5に送 られ、 図 1 2に示したように表示される。 制御基板 8 aは、 主に、 L C D 7 5とタツチパネル 7 7等の制御を行い、 状況 に応じてモータ駆動などの制御を行う。 制御基板 8 aは又、 紙センサー、 廃トナ 一センサ、 トナー濃度センサなどの信号から、 ジャム、 トナー不足等を検知し、 必要に応じてコント口ールパネル上のブザー Ί 6を鳴らす。
液晶コントローラ 8 1はマイコン 8 2からの信号に基づて、 L C D 7 5 へ表示 制御信号を送信し、 これによつてグラフィックス表示が行われる。 画像加工部
さて、 画像加工部 5は、 領域選択部 4で選択された画像領域に対して、 ユーザ により指定された加工処理を施す。 画像の加工処理の一例を以下に説明する。
1 . 画像編集:画像の編集として色々考えられるが、 その 1つとして、 例えば、 選択された画像領域を切り出し、 それを拡大処理することが挙げられる。 その際、 例えば、 一般的に使われる線形捕間に基づく拡大処理を行ってもよい。
その他の編集機能としては、 通常のワープロ等に備わっているような、 選択さ れた領域内の色を別の色に変える (黒を赤に変える) 、 領域内の文字を中抜き又 は斜体文字にするなど一般的な各種編集機能 (デジタル画像処理) であってもよ い。
2 . 画像置き換え: これは選択された領域をその後入力される何らかのデータ で置き換える処理である。 例えば、 その画像領域の始点 ·終点座標と置き換える べきデータの始点,終点座標から、 置き換えデータを縮小するか拡大するかを決 定し、 拡大処理あるいは縮小処理を施した後、 あるいはそのまま、 画像の置き換 んを行う。
3 . 画像の埋め込み:画像領域内に隠し情報や、 キーとなる情報を不可視状態 で埋め込むこともできる。 その情報埋め込みは原稿全面に行うのではなく、 ユー ザ指定の領域に行われる。 情報埋め込み処理は本発明の要旨ではないので説明は 省略する。
指定された領域が空白領域である場合は、 不可視情報の埋め込みに限らず、 可 視画像を埋め込むことも可能である。 なお、 空白領域に可視画像を埋め込む場合、 その空白領域の面積と埋め込む情報の大きさに基づき画像の変倍処理を行ってか ら画像を埋め込む。
ユーザは、 ユーザィンターフェース部 7を介して所望の加工処理を選択すれば よい。 画像加工部 5により加工された画像領域の画像を含む原稿画像全体は、 出 力画像記憶部 6に一時記憶される。 出力画像記憶部
出力画像記憶部 6は、 画像出力部 1 1を介して出力される画像を一時記憶する ためのものでる。 なお、 複数枚の画像を 1枚の画像情報にまとめる際には、 ぺー ジメモリとしての機能が必要となる。 また 1枚の原稿画像から情報を消す場合、 数ラインのみのラインバッファ機能が必要となる。 画像出力部
画像出力部 1 1は、 出力画像記憶部 6に記憶された画像を出力するもので、 例 えば、 紙上に印字するプリンタから構成されている。 システム制御部
システム制御部 9は、 本発明に関わるシステム全体の制御を司るもので、 C P U、 その他の周辺機器から構成されている。 システム制御部 9は上記各部にタイ ミング信号、 クロック信号、 制御信号、 及び処理用のパラメータなどを供給する 冑報格納部
システム情報格納部 1 0は、 システム全体に必要なデータ、 プログラムなどを 記憶するものである。 外部ィンタ一フェース部
外部インターフェース部 1 2は、 画像加工部 5で加工された画像領域あるいは、 その加工済みの画像領域を含む原稿画像全体を任意の通信回線を介して外部へ送 信するためのもので、 例えば電話回線を利用する F A Xモデム、 あるいは特定の ネットワーク接続のためのィンターフェースである。
本実施形態に係る画像形成装置を外部インターフェース部 1 2及びネットヮー クを介して複数の画像形成装置に接続したシステムの場合、 少なくともその複数 の画像形成装置のうちのいずれか 1つが画像出力部 1 1を具備しているだけでも、 充分有効なシステムとなる。 すなわち、 画像出力部 1 1を具備していない画像形 成装置 (この場合、 画像処理装置と呼ぶ) にて、 選択された領域に対し所望の加 ェを施した後、 画像出力部 1 1を具備する他の画像形成装置に外部インターフユ ース部 1 2を介して送信して印刷出力するといった形態が可能である。 処理動作
次に、 以上説明した構成の画像形成装置の処理動作について、 図 1 7に示すフ 口—チャートを参照して説明する。
画像入力部 1から処理対象の原稿の画像が入力すると、 入力画像記憶部 2に一 時記憶される (ステップ S 1 ) 。 画像記憶部 2に記憶された原稿画像は、 画像識 別部 3でその内容が識別され (ステップ S 2 ) 、 識別結果がユーザインターフエ ース部 7に表示される。 このとき、 原稿画像から識別された各画像領域も表示さ れる (ステップ S 3〜ステップ S 4 ) 。 この表示内容に基づきユーザにより少な くとも 1点が指定されたとき (ステップ S 5 ) 、 領域選択部 4は、 その点の座標 に対応する画像領域を選択して、 選択された画像領域をユーザィンターフェース 部 7を介してユーザに明示する (ステップ S 6 ) 。 ユーザインターフェース部 7 に、 選択された画像領域に対し 「確定」 、 「取り消し」 等の指示を入力するため のキーが具備されている場合、 そのキー入力に応じて、 その後の処理を実行する (ステップ S 7 ) 。例えば、 「確定」 のキー入力を受けたときは (Y e sの場合) 、 該選択された画像領域に対する加工処理の選択、 実行処理に進む (E x i t ) 。 一方、 「取り消し」 のキー入力を受けたとき (N oの場合) は、 再ぴステップ S 3に戻り、 上記処理動作を繰り返す。
以上説明したように、 上記実施形態によれば、 画像識別技術を利用して原稿画 像上の各領域を容易に指定でき (例えば、 ワンタッチ指定) 、 指定された画像領 域を表示できる。 指定された画像領域に何らかの修正の必要がある場合、 その修 正を指定し、 修正後の画像構成などを表示してから、 指定された画像領域を修正 できる。

Claims

請求の範囲
1 . 入力された原稿画像データから原稿画像内の複数の画像領域を判定する領域 判定手段と、
前記領域判定手段で判定された画像領域の前記原稿画像中の位置を表示する表 示手段と、
前記表示手段により表示された内容に基づき、 少なくとも 1点を指定するため の指定手段と、
前記指定手段により指定された位置の座標と前記画像領域の位置とに基づき前 記指定された位置に対応する画像領域を指定領域として決定する決定手段と、 前記決定手段で決定された指定領域の画像に対して画像処理を施す画像処理手 段と、
を具備することを特徴とする画像処理装置。
2 . 前記表示手段は前記決定手段により決定された指定領域を他の画像領域と区 別して表示する手段を有することを特徴とする請求項 1記載の装置。
3 . 前記表示手段は前記判定された各画像領域の画像属性を表示する手段を有す ることを特徴とする請求項 1記載の装置。
4 . 前記決定手段は前記指定された位置が前記画像領域のいずれにも含まれない とさ、 前記指定された位置に最も近い画像領域を指定領域として決定する手段を 有することを特徴とする請求項 1記載の装置。
5 . 領域判定手段は、 判定した前記複数の画像領域の間に存在する 1つ以上の非 画像領域を判定する手段を有し、 前記決定手段は前記指定された位置が前記領域 判定手段により判定された前記非画像領域内にある場合、 その非画像領域を前記 指定領域として決定する手段を有し、 前記表示手段は前記決定手段により決定さ れた指定領域を他の画像領域と区別して表示する手段を有することを特徴とする 請求項 1記載の装置。
6 . 前記表示手段は領域判定手段により判定された各画像領域の輪郭を前記原稿 画像の原稿枠内の対応する位置に表示する手段を有することを特徴とする請求項 1記載の装置。
7 . 前記領域判定手段は、 前記原稿画像を構成する各オブジェク トの位置及ぴサ ィズを算出し特徴量として提供する特徴量算出手段と、 前記特徴量を基に、 同一 属性のォブジヱクトの集まりを各々統合することにより、 前記複数の画像領域を 判定する手段を有することを特徴とする請求項 1記載の装置。
8 . 前記画像処理手段は、 前記指定領域の画像を他の画像に置き換える画像置き 換え手段を有することを特徴とする請求項 1記載の装置。
9 . 前記画像処理手段は、 前記指定領域の画像に他の画像を埋め込む画像埋め込 み手段を有することを特徴とする請求項 1記載の装置。
1 0 . 原稿画像を光学的に走査し、 原稿画像データを提供する走査手段と、 前記走査手段から提供される原稿画像データに基づいて、 原稿画像内の複数の 画像領域を判定する領域判定手段と、
前記領域判定手段で判定された画像領域の前記原稿画像中の位置を表示する表 示手段と、
前記表示手段により表示された内容に基づき、 少なくとも 1点を指定するため の指定手段と、
前記指定手段により指定された位置の座標と前記画像領域の位置とに基づき前 記指定された位置に対応する画像領域を指定領域として決定する決定手段と、 前記決定手段で決定された指定領域の画像に対して画像処理を施す画像処理手 段と、 前記走査手段から提供される原稿画像データ及ぴ前記画像処理手段により処理 された画像データに基づいて画像を形成する画像形成手段と、
を具備することを特徴とする画像形成装置。
1 1 . 前記表示手段は前記判定された各画像領域の画像属性を表示する手段を有 することを特徴とする請求項 1 0記載の装置。
1 2 . 前記領域判定手段は、 判定した前記複数の画像領域の間に存在する 1っ以 上の非画像領域を判定する手段を有し、 前記決定手段は前記指定された位置が前 記領域判定手段により判定された前記非画像領域内にある場合、 その非画像領域 を前記指定領域として決定する手段を有し、 前記表示手段は前記決定手段により 決定された指定領域を他の画像領域と区別して表示する手段を有することを特徴 とする請求項 1 0記載の装置。
1 3 . 前記表示手段は領域判定手段により判定された各画像領域の輪郭を前記原 稿画像の原稿枠内の対応する位置に表示する手段を有することを特徴とする請求 項 1 0記載の装置。
1 4 . 前記領域判定手段は、 前記原稿画像を構成する各オブジェク トの位置及ぴ サイズを算出し特徴量として提供する特徴量算出ステップと、 前記特徴量を基に、 同一属性のォブジ -クトの集まりを各々統合することにより、 複数の画像領域を 判定するステップを有することを特徴とする請求項 1 0記載の装置。
1 5 . 入力された原稿画像データから原稿画像内の複数の画像領域を判定する領 域判定ステップと、
前記領域判定ステップで判定された画像領域の前記原稿画像中の位置を表示す る表示ステップと、
前記表示ステップにより表示された内容に基づき、 少なくとも 1点を指定する ための指定ステップと、
前記指定ステップにより指定された位置の座標と前記画像領域の位置とに基づ き、 前記指定された位置に対応する画像領域を指定領域として決定する決定ステ ップと、
を具備することを特徴とする領域指定方法。
1 6 . 前記表示ステップは前記判定された各画像領域の画像属性を表示するステ ップを有することを特徴とする請求項 1 5記載の方法。
1 7 . 前記領域判定ステップは、 判定した前記複数の画像領域の間に存在する 1 つ以上の非画像領域を判定するステツプを有し、 前記決定ステツプは前記指定さ れた位置が前記領域判定ステップにより判定された前記非画像領域内にある場合、 その非画像領域を前記指定領域として決定するステップを有し、 前記表示ステツ プは前記決定ステツプにより決定された指定領域を他の画像領域と区別して表示 するステップを有することを特徴とする請求項 1 5記載の方法。
1 8 . 前記表示ステップは前記領域判定ステツプにより判定された各画像領域の 輪郭を前記原稿画像の原稿枠内の対応する位置に表示するステップを有すること を特徴とする請求項 1 5記載の方法。
1 9 . 前記領域判定ステップは、 前記原稿画像を構成する各オブジェク トの位置 及びサイズを算出し特徴量として提供する特徴量算出ステップと、 前記特徴量を 基に、 同一属性のオブジェク トの集まりを各々統合することにより、 前記複数の 画像領域を判定するステツプを有することを特徴とする請求項 1 5記載の方法。
PCT/JP1998/005497 1997-12-18 1998-12-04 画像領域指定機能を有する画像処理装置 WO2004084538A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US09/355,962 US6323876B1 (en) 1997-12-18 1998-12-04 Image processing apparatus having image region specifying function

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP9/349412 1997-12-18
JP34941297A JP3773642B2 (ja) 1997-12-18 1997-12-18 画像処理装置および画像形成装置

Publications (1)

Publication Number Publication Date
WO2004084538A1 true WO2004084538A1 (ja) 2004-09-30

Family

ID=18403581

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/005497 WO2004084538A1 (ja) 1997-12-18 1998-12-04 画像領域指定機能を有する画像処理装置

Country Status (3)

Country Link
US (1) US6323876B1 (ja)
JP (1) JP3773642B2 (ja)
WO (1) WO2004084538A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107767428A (zh) * 2017-11-06 2018-03-06 贵阳朗玛信息技术股份有限公司 Dicom图像的绘制方法及装置

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7039863B1 (en) * 1999-07-23 2006-05-02 Adobe Systems Incorporated Computer generation of documents using layout elements and content elements
US6977665B2 (en) * 1999-11-29 2005-12-20 Fuji Photo Film Co., Ltd. Method, apparatus and recording medium for generating composite image
US6972774B2 (en) * 2000-02-21 2005-12-06 Fujitsu Limited Image processing system for inserting plurality of images into composite area, and medium
FR2833132B1 (fr) * 2001-11-30 2004-02-13 Eastman Kodak Co Procede pour selectionner et enregistrer un sujet d'interet dans une image numerique fixe
US20040139399A1 (en) * 2003-01-14 2004-07-15 Toshiba Tec Kabushiki Kaisha Image forming apparatus and image forming method
CN100382096C (zh) * 2003-08-20 2008-04-16 奥西-技术有限公司 文档扫描设备及方法
JP2007503032A (ja) * 2003-08-20 2007-02-15 オセ−テクノロジーズ・ベー・ヴエー ドキュメントスキャナ
US8441694B2 (en) * 2003-09-30 2013-05-14 Hewlett-Packard Development Company, L.P. Method and an apparatus for adjusting a scanning target area of an image reproduction device
JP4352921B2 (ja) * 2004-02-09 2009-10-28 株式会社デンソー 回転位置検出装置
KR100601676B1 (ko) * 2004-05-12 2006-07-14 삼성전자주식회사 편집기능을 갖는 문서 스캔 방법 및 장치 및 그를 이용한복합기
KR100747879B1 (ko) * 2004-06-10 2007-08-08 캐논 가부시끼가이샤 화상 처리 장치, 제어 방법 및 기록 매체
CN101048727B (zh) * 2004-10-27 2010-09-29 富士通天株式会社 显示装置
JP2007082021A (ja) * 2005-09-16 2007-03-29 Ricoh Co Ltd 画像処理装置、プログラムおよび画像データ処理方法
US20070211930A1 (en) * 2006-03-09 2007-09-13 Terry Dolwick Attribute based image enhancement and display for medical imaging applications
JP2008009572A (ja) * 2006-06-27 2008-01-17 Fuji Xerox Co Ltd ドキュメント処理システム、ドキュメント処理方法及びプログラム
US7986843B2 (en) 2006-11-29 2011-07-26 Google Inc. Digital image archiving and retrieval in a mobile device system
US20080162602A1 (en) * 2006-12-28 2008-07-03 Google Inc. Document archiving system
JP4420295B2 (ja) * 2007-02-07 2010-02-24 株式会社沖データ 画像読取装置
JP2010056964A (ja) * 2008-08-28 2010-03-11 Canon Inc 受信装置及びその制御方法、プログラム、記録媒体
WO2015119207A1 (ja) * 2014-02-07 2015-08-13 株式会社モルフォ 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
JP6117164B2 (ja) * 2014-09-30 2017-04-19 富士フイルム株式会社 画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラム
JP5858188B1 (ja) * 2015-06-15 2016-02-10 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
EP3715135B1 (en) * 2019-03-29 2023-04-05 Brother Kogyo Kabushiki Kaisha Non-transitory computer-readable medium, print image control device, and control method of print image control device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01212072A (ja) * 1988-02-19 1989-08-25 Fuji Xerox Co Ltd 原稿領域指定装置
JPH0259880A (ja) * 1988-08-25 1990-02-28 Nec Corp 文書読取装置
JPH03172073A (ja) * 1989-11-30 1991-07-25 Mita Ind Co Ltd 合成画像形成装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4896208A (en) * 1986-12-02 1990-01-23 Minolta Camera Kabushiki Kaisha Apparatus and method for reading and digitally editing multiple images
US5406389A (en) * 1991-08-22 1995-04-11 Riso Kagaku Corporation Method and device for image makeup
JPH08265558A (ja) * 1994-12-26 1996-10-11 Ricoh Co Ltd 画像形成装置
JP3172073B2 (ja) 1995-11-22 2001-06-04 ブリヂストンスポーツ株式会社 ゴルフボール及びその製造方法
JP3838282B2 (ja) * 1996-06-20 2006-10-25 ブラザー工業株式会社 絵作成装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01212072A (ja) * 1988-02-19 1989-08-25 Fuji Xerox Co Ltd 原稿領域指定装置
JPH0259880A (ja) * 1988-08-25 1990-02-28 Nec Corp 文書読取装置
JPH03172073A (ja) * 1989-11-30 1991-07-25 Mita Ind Co Ltd 合成画像形成装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107767428A (zh) * 2017-11-06 2018-03-06 贵阳朗玛信息技术股份有限公司 Dicom图像的绘制方法及装置
CN107767428B (zh) * 2017-11-06 2021-12-03 贵阳朗玛信息技术股份有限公司 通信系统dicom图像的绘制方法及装置

Also Published As

Publication number Publication date
JPH11187248A (ja) 1999-07-09
JP3773642B2 (ja) 2006-05-10
US6323876B1 (en) 2001-11-27

Similar Documents

Publication Publication Date Title
WO2004084538A1 (ja) 画像領域指定機能を有する画像処理装置
JPH08289094A (ja) 文書イメージスキャン方法及びその装置
JP4655335B2 (ja) 画像認識装置、画像認識方法および画像認識プログラムを記録したコンピュータ読取可能な記録媒体
JP2006251902A (ja) 翻訳文書画像生成装置、翻訳文書画像生成プログラム及び翻訳文書画像生成方法
JPH0581424A (ja) ノイズ除去方法
JP4613397B2 (ja) 画像認識装置、画像認識方法および画像認識プログラムを記録したコンピュータ読取可能な記録媒体
JP2008288912A (ja) 画像処理装置および画像形成装置
JP2001053954A (ja) 情報埋め込み装置、情報読み出し装置、電子透かしシステム、情報埋め込み方法、情報読み出し方法及び記録媒体
JP2000217000A (ja) 画像処理装置、画像処理方法及び記録媒体
JP2003046746A (ja) 画像処理方法及び画像処理装置
US5363173A (en) Document production apparatus with deselected feature restoration
JP3997696B2 (ja) 画像処理のための装置、方法及び記録媒体
JPS5938612B2 (ja) 情報入力装置
JPH0962662A (ja) 文書処理装置
JPH05108793A (ja) 文書編集装置
JP5935376B2 (ja) 複写装置
JP2009141525A (ja) 画像処理装置及び画像処理方法
JP2010009146A (ja) 文書処理方法および文書処理装置
JP2009147435A (ja) スキャナおよびプリンタを用いた上書き印刷システム
JP3103100B2 (ja) 領域指定方法及び装置
JPS59123360A (ja) 情報通信端末装置
JP2000078404A (ja) 画像処理装置
JPH11224259A (ja) 画像処理装置、画像処理方法および記憶媒体
JPH10336441A (ja) 画像領域属性判別方法
JP2003309716A (ja) 画像通信装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 09355962

Country of ref document: US

AK Designated states

Kind code of ref document: A1

Designated state(s): US