Movatterモバイル変換


[0]ホーム

URL:


JP2003264701A - Image processing method, image processing apparatus, and image forming apparatus having the same - Google Patents

Image processing method, image processing apparatus, and image forming apparatus having the same

Info

Publication number
JP2003264701A
JP2003264701AJP2002064468AJP2002064468AJP2003264701AJP 2003264701 AJP2003264701 AJP 2003264701AJP 2002064468 AJP2002064468 AJP 2002064468AJP 2002064468 AJP2002064468 AJP 2002064468AJP 2003264701 AJP2003264701 AJP 2003264701A
Authority
JP
Japan
Prior art keywords
area
unit
character area
character
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002064468A
Other languages
Japanese (ja)
Inventor
Makoto Otsu
誠 大津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp CorpfiledCriticalSharp Corp
Priority to JP2002064468ApriorityCriticalpatent/JP2003264701A/en
Publication of JP2003264701ApublicationCriticalpatent/JP2003264701A/en
Pendinglegal-statusCriticalCurrent

Links

Landscapes

Abstract

Translated fromJapanese

(57)【要約】【課題】 文字領域とその他のイメージ領域との境界付
近部のギャップを極力抑制し、出力画質の向上を図るこ
とができる画像処理方法および画像処理装置を提供す
る。【解決手段】 文字領域検出部16と、文字領域検出部
16の判定結果に基づいて文字領域に属すると判定され
た注目画素に対して、その濃度値が高濃度領域に属する
のか低濃度領域に属するのかを判定する高濃度領域低濃
度領域抽出部17とを備える文字領域判定部14を設
け、文字領域を高濃度領域と低濃度領域とに分離したう
え、それぞれの領域に対して、設定された処理内容の処
理すなわち最適な画像処理を施すことによって、文字領
域とその他の領域との間に生じるギャップを極力抑制す
る。
(57) [Problem] To provide an image processing method and an image processing apparatus capable of minimizing a gap near a boundary between a character area and another image area and improving output image quality. SOLUTION: A character area detecting section 16 and a pixel of interest determined to belong to a character area based on a determination result of the character area detecting section 16 have a density value belonging to a high density area or a low density area. A character area determination unit 14 including a high density area / low density area extraction unit 17 for determining whether the character area belongs is provided. The character area is separated into a high density area and a low density area. By performing the processing of the processed contents, that is, the optimal image processing, the gap generated between the character area and the other areas is suppressed as much as possible.

Description

Translated fromJapanese
【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、スキャナやデジタ
ルスチルカメラ等のカラー画像入力装置より読み取られ
た入力画像データに対し、文字領域に属するか否かの領
域判定処理および濃度値が高濃度であるのか低濃度であ
るのかの濃度判定処理を行い、これらの結果に基づいて
適切な黒生成下色除去処理、中間調処理を施す画像処理
方法および画像処理装置並びにそれを備えた画像形成装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to input image data read by a color image input device such as a scanner or a digital still camera, and an area determining process for determining whether or not the input image data belongs to a character area and a high density value. The present invention relates to an image processing method, an image processing apparatus, and an image forming apparatus including the same, which performs a density determination process to determine whether the density is low or low, and performs appropriate black generation undercolor removal processing and halftone processing based on these results. It is a thing.

【0002】[0002]

【従来の技術】たとえば、デジタル複写機などの画像形
成装置において、アナログ画像をデジタル化した後、プ
リンタまたはディスプレイなどの出力装置に出力する技
術が実用化されている。この種の画像形成装置において
は、文字と絵柄などが混在した原稿を処理して再生する
場合、いわゆる領域分離処理と呼ばれる処理によって文
字領域と網点領域と写真領域などの領域を識別し、各種
領域に適した処理を施すことで画質の向上が図られてい
る。具体的には、デジタルスキャナやデジタルスチルカ
メラなどのデジタルカラー画像入力装置において、一般
に3色分解系の固体撮像素子CCD(Charge Coupled D
evice)によって得られる3刺激値色情報(R,G,
B)がアナログ信号からデジタル信号に変換され入力信
号として利用されている。この入力信号を最適に表示ま
たは出力する際には、読取り原稿内の同一特性を有する
小領域ごとに分離を行い、各領域に対し、最適な処理を
施すことによって良質な画像を再現することが可能であ
る。一般的に、小領域に分離する際に読取り原稿内(入
力のソースは原稿に限定するものではなく、風景や人工
的な形成画像など、画像入力デバイスで扱える画像全般
に当てはめることが可能である)に存在する文字・網点
・写真などの各領域を局所単位で識別処理を行い、それ
ぞれの特性をもつ領域ごとに画質向上処理を設定するこ
とで画像の再現性を高める方法が提案されている。
2. Description of the Related Art For example, in an image forming apparatus such as a digital copying machine, a technique of digitizing an analog image and then outputting it to an output device such as a printer or a display has been put into practical use. In this type of image forming apparatus, when a document in which characters and patterns are mixed is processed and reproduced, a character area, a halftone dot area, a photographic area, and the like are identified by a so-called area separation processing, Image quality is improved by performing processing suitable for the area. Specifically, in a digital color image input device such as a digital scanner or a digital still camera, a solid color image pickup device CCD (Charge Coupled D
evice) tristimulus value color information (R, G,
B) is converted from an analog signal to a digital signal and used as an input signal. When this input signal is optimally displayed or output, it is possible to reproduce a high-quality image by separating each small area having the same characteristics in the read document and performing the optimum processing on each area. It is possible. Generally, when separating into small areas, the inside of the read document (the source of input is not limited to the document, but can be applied to all images that can be handled by an image input device, such as landscapes and artificially formed images. ) Has been proposed to improve the reproducibility of the image by identifying each area such as characters, halftone dots, and photographs in local units, and setting the image quality improvement processing for each area with each characteristic. There is.

【0003】各画像領域の特性に応じた最適化処理を行
う画像処理装置においては、有彩領域の再現にはシア
ン、マゼンタ、イエロー(C,M,Y)の三色の色材の
混色によって再現される一方、黒領域においては一般に
前記色材の混色によって再現するよりも、黒色材Bkに
よって直接再現する方がより鮮明に再現することが可能
である。また、通常文字領域として認識される領域に対
しては解像度を重視し画素濃度値の2値化処理を施し、
文字領域以外の領域に対しては階調性を重視するために
複数の画素を用いて擬似階調処理を施すことによって、
出力時において文字領域をくっきりと際立たせ、その他
の写真領域などを階調性豊かに出力することが高画質化
につながる事が知られている。
In the image processing apparatus for performing the optimization processing according to the characteristics of each image area, the reproduction of the chromatic area is performed by mixing the three color materials of cyan, magenta and yellow (C, M, Y). On the other hand, in the black region, in general, it is possible to reproduce more clearly by directly reproducing with the black material Bk than by reproducing with the color mixture of the color materials. Further, for the area recognized as the normal character area, the pixel density value is binarized with emphasis on the resolution.
For areas other than the character area, by applying pseudo gradation processing using a plurality of pixels in order to emphasize gradation,
It is known that clearly highlighting a character region at the time of output and outputting other photo regions and the like with rich gradation leads to high image quality.

【0004】近年、出力画質の高画質化を図る技術が種
々提案されている(特開平10−336429号公報参
照)。この公報に記載の従来技術では、文字領域とその
他のイメージ領域に分離をし、文字領域に対しては2値
化処理を施し、イメージ領域に対しては擬似階調処理を
施し、さらにイメージ領域に対しては高濃度/低濃度に
分離を行いそれぞれ異なった処理を行っている。すなわ
ち、黒文字に対しては、1×1の解像度重視の画像形成
を行い、その他の領域に対しては、複数画素を用いた中
間調処理を施すことによって階調性を得る処理を行って
いる。
In recent years, various techniques for improving the output image quality have been proposed (see Japanese Patent Laid-Open No. 10-336429). In the prior art described in this publication, a character region and other image regions are separated, a binarization process is performed on the character region, a pseudo gradation process is performed on the image region, and the image region is further processed. In contrast, the high concentration / low concentration are separated and different treatments are performed. That is, 1 × 1 resolution-oriented image formation is performed on black characters, and halftone processing using a plurality of pixels is performed on other areas to obtain gradation. .

【0005】[0005]

【発明が解決しようとする課題】前記公報に記載の従来
技術では、文字領域とその他のイメージ領域について、
それぞれの領域を単独でみた場合には、文字領域とその
他のイメージ領域とをそれぞれきれいに再現しているも
のの、文字領域とその他のイメージ領域との境界付近部
において、ギャップを生じ出力画質の低下を招く。特
に、有彩色の下地上に文字や線画が存在するような場
合、文字や線画とその下地の間にギャップが生じるとい
う問題がある。図13は、前記境界付近部におけるギャ
ップなどを示す図表である。図13(a)において、細
い実線L1は入力信号を、太い実線L2は出力信号をそ
れぞれ表している。図13(b)は、文字領域を1×1
のディザマトリクスで中間調処理を行った時の出力信号
を表したものであり、この場合、画像出力装置の出力特
性に基づいて5レベルの信号が出力されるようになって
おり、図13(a)の文字領域においては上下のレベル
を除いた3レベルの信号が出力される。一方、図13
(a)のその他領域(例えば、上記した有彩色の下地領
域)では、階調性を得るために、たとえば8×8のディ
ザマトリクスで処理がなされ十分な階調性が確保され
る。その結果、これらの境界付近部に図の矢印部に示さ
れるギャップが生じ、出力画質の低下を招く。
In the prior art described in the above publication, regarding the character area and the other image area,
When each area is viewed independently, the character area and other image areas are reproduced finely, but there is a gap in the vicinity of the boundary between the character area and other image areas, and the output image quality is degraded. Invite. In particular, when a character or a line drawing exists on the lower ground of a chromatic color, there is a problem that a gap is generated between the character or the line drawing and the background thereof. FIG. 13 is a chart showing gaps and the like near the boundary. In FIG. 13A, a thin solid line L1 represents an input signal and a thick solid line L2 represents an output signal. In FIG. 13B, the character area is 1 × 1.
FIG. 13 shows an output signal when halftone processing is performed by the dither matrix of FIG. 13. In this case, a 5-level signal is output based on the output characteristics of the image output device. In the character area of a), three-level signals excluding upper and lower levels are output. On the other hand, FIG.
In the other area of (a) (for example, the above-mentioned chromatic color background area), in order to obtain gradation, for example, 8 × 8 dither matrix processing is performed to ensure sufficient gradation. As a result, a gap shown by an arrow in the figure is generated in the vicinity of these boundaries, and the output image quality is deteriorated.

【0006】したがって本発明の目的は、文字領域とそ
の他のイメージ領域との境界付近部のギャップを極力抑
制し、出力画質の向上を図ることができる画像処理方法
および画像処理装置並びにそれを備えた画像形成装置を
提供することである。
Therefore, an object of the present invention is to provide an image processing method, an image processing apparatus, and an image processing apparatus capable of suppressing the gap near the boundary between the character area and the other image area as much as possible and improving the output image quality. An image forming apparatus is provided.

【0007】[0007]

【課題を解決するための手段】本発明は、入力画像を少
なくとも所定の第1領域とその他の第2領域に分離する
領域分離手段であって、注目画素が第1領域に属するか
否かを判定する第1領域抽出部と、第1領域抽出部の判
定結果に基づいて第1領域に属すると判定された注目画
素に対して、その濃淡レベルが注目画素近傍の濃淡レベ
ルよりも高い高濃淡領域に属するのか、濃淡レベルが注
目画素近傍の濃淡レベルよりも低い低濃淡領域に属する
のかを判定する濃淡領域抽出部とを備える第1領域判定
部を有する領域分離手段と、入力画像に所定の処理を施
す画像処理手段と、前記第1領域判定部の判定結果に基
づいて、画像処理手段の処理内容を設定する制御手段と
を備えることを特徴とする画像処理装置である。
The present invention is area separating means for separating an input image into at least a predetermined first area and other second areas, and determines whether or not a pixel of interest belongs to the first area. The first area extraction unit to be determined, and the high and low gray level whose gray level is higher than the gray level in the vicinity of the pixel of interest for the target pixel determined to belong to the first area based on the determination result of the first area extraction unit. A region separation unit having a first region determination unit that includes a gray region extraction unit that determines whether it belongs to a region or a low gray region whose gray level is lower than the gray level in the vicinity of the pixel of interest, and a predetermined region for the input image. An image processing apparatus comprising: an image processing unit that performs processing; and a control unit that sets the processing content of the image processing unit based on the determination result of the first area determination unit.

【0008】本発明に従えば、第1領域判定部における
第1領域抽出部にて、注目画素が第1領域に属するのか
否かが判定される。濃淡領域抽出部にて、第1領域抽出
部の判定結果に基づいて第1領域に属すると判定された
注目画素に対して、その濃淡レベルが注目画素近傍の濃
淡レベルよりも高い高濃淡領域に属するのか、濃淡レベ
ルが注目画素近傍の濃淡レベルよりも低い低濃淡領域に
属するのかが判定される。制御手段においては、第1領
域判定部の判定結果に基づいて画像処理手段の処理内容
を設定し、画像処理手段では、入力画像に、前記設定さ
れた処理内容の処理を施す。
According to the present invention, the first area extraction section in the first area determination section determines whether or not the pixel of interest belongs to the first area. For the target pixel determined to belong to the first region based on the determination result of the first region extraction unit by the grayscale region extraction unit, a high-density region whose grayscale level is higher than the grayscale level near the target pixel is selected. It is determined whether it belongs or belongs to a low gray level region in which the gray level is lower than the gray level near the target pixel. The control means sets the processing content of the image processing means based on the determination result of the first area determination section, and the image processing means performs the processing of the set processing content on the input image.

【0009】また本発明は、入力画像を文字領域を含む
複数の領域に分離する領域分離手段であって、注目画素
が文字領域に属するか否かを判定する文字領域抽出部
と、文字領域抽出部の判定結果に基づいて文字領域に属
すると判定された注目画素に対して、その濃度値が注目
画素近傍の濃度値よりも高い高濃度領域に属するのか、
濃度値が注目画素近傍の濃度値よりも低い低濃度領域に
属するのかを判定する高濃度領域低濃度領域抽出部とを
備える文字領域判定部を有する領域分離手段と、入力画
像に所定の処理を施す画像処理手段と、前記文字領域判
定部の判定結果に基づいて、画像処理手段の処理内容を
設定する制御手段とを備えることを特徴とする画像処理
装置である。
Further, the present invention is an area separating means for separating an input image into a plurality of areas including a character area, and a character area extracting section for judging whether or not a pixel of interest belongs to the character area, and a character area extracting section. For the target pixel determined to belong to the character area based on the determination result of the copy, whether the density value belongs to a high density area higher than the density value in the vicinity of the target pixel,
Area separation means having a character area determination unit including a high-density area and low-density area extraction unit that determines whether the density value belongs to a low-density area lower than the density value in the vicinity of the pixel of interest, and a predetermined process is performed on the input image. An image processing apparatus comprising: an image processing unit that performs the processing; and a control unit that sets processing contents of the image processing unit based on a determination result of the character area determination unit.

【0010】本発明に従えば、文字領域判定部における
文字領域抽出部にて、注目画素が文字領域に属するのか
否かが判定される。高濃度領域低濃度領域抽出部にて、
文字領域抽出部の判定結果に基づいて文字領域に属する
と判定された注目画素に対して、その濃度値が注目画素
近傍の濃度値よりも高い高濃度領域に属するのか、濃度
値が注目画素近傍の濃度値よりも低い低濃度領域に属す
るのかが判定される。制御手段においては、文字領域判
定部の判定結果に基づいて画像処理手段の処理内容を設
定し、画像処理手段では、入力画像に、前記設定された
処理内容の処理を施す。
According to the present invention, the character area extraction section of the character area determination section determines whether or not the pixel of interest belongs to the character area. In the high density area low density area extraction unit,
For the target pixel determined to belong to the character area based on the determination result of the character area extraction unit, whether the density value belongs to a high density area higher than the density value near the target pixel, or the density value is near the target pixel It is determined whether or not it belongs to a low density region lower than the density value of. The control means sets the processing content of the image processing means based on the determination result of the character area determination section, and the image processing means performs the processing of the set processing content on the input image.

【0011】また本発明は、画像処理手段は、入力画像
に対して中間調処理を施す階調再現処理部を含み、制御
手段は、文字領域判定部の判定結果に基づいて、文字領
域でかつ高濃度領域に属すると判定された注目画素に対
しては、前記階調再現処理部を制御して解像度を重視し
た処理を施し、文字領域でかつ低濃度領域に属すると判
断された注目画素に対しては、前記階調再現処理部を制
御して階調性を重視した処理を施すように画像処理手段
を制御することを特徴とする。
Further, according to the present invention, the image processing means includes a gradation reproduction processing section for performing a halftone process on the input image, and the control means determines that the character area is determined based on the determination result of the character area determination section. For the pixel of interest determined to belong to the high-density area, the gradation reproduction processing unit is controlled to perform processing with emphasis on resolution, and the pixel of interest determined to belong to the character area and the low-density area is processed. On the other hand, it is characterized in that the image processing means is controlled so that the gradation reproduction processing section is controlled to perform processing with emphasis on gradation.

【0012】本発明に従えば、文字領域判定部の判定結
果に基づいて、文字領域内部を高濃度領域に属するもの
と低濃度領域に属するものとに分離したうえ、高濃度領
域に属すると判定された注目画素に対しては、階調再現
処理部を制御して解像度を重視した処理を施し、低濃度
領域に属すると判定された注目画素に対しては、階調再
現処理部を制御して諧調性を重視した処理を行うことが
可能となり、文字周辺に濃度を有する下地(着色した下
地や白地ではない下地)が存在する場合に、文字と下地
の境界において連続的な階調再現を実現することが可能
となる。
According to the present invention, the inside of the character area is divided into those belonging to the high density area and those belonging to the low density area based on the judgment result of the character area judging section, and it is judged that the character area belongs to the high density area. The gradation reproduction processing unit is controlled for the selected target pixel to perform processing with emphasis on the resolution, and the gradation reproduction processing unit is controlled for the target pixel determined to belong to the low density area. It is possible to perform processing that emphasizes gradation, and if there is a background with a density around the character (colored background or non-white background), continuous gradation reproduction at the boundary between the character and the background. It can be realized.

【0013】また本発明は、画像処理手段は、入力画像
に対して黒生成下色除去処理を施す黒生成下色除去部を
含み、制御手段は、文字領域判定部の判定結果に基づい
て、文字領域でかつ高濃度領域に属すると判定された注
目画素に対しては、前記黒生成下色除去部を制御して、
低濃度領域に属すると判定された注目画素よりも下色除
去量を高くするように画像処理手段を制御することを特
徴とする。
According to the present invention, the image processing means includes a black generation undercolor removal section for performing black generation undercolor removal processing on the input image, and the control means is based on the determination result of the character area determination section. For the target pixel that is determined to belong to the character area and the high density area, the black generation undercolor removal unit is controlled,
It is characterized in that the image processing means is controlled so that the undercolor removal amount is higher than that of the pixel of interest determined to belong to the low-density region.

【0014】本発明に従えば、下色除去処理を高濃度領
域/低濃度領域によって切換えることによって、文字領
域とその他の領域のギャップを精度よく制御することが
可能となる。
According to the present invention, it is possible to control the gap between the character area and the other area with high accuracy by switching the undercolor removal processing between the high density area and the low density area.

【0015】また本発明は、文字領域判定部は、文字領
域を有彩文字領域と無彩文字領域とに分離する色判定部
を備えていることを特徴とする。
Further, the present invention is characterized in that the character area judging section includes a color judging section for separating the character area into a chromatic character area and an achromatic character area.

【0016】本発明に従えば、文字領域判定部の色判定
部によって、文字領域を有彩文字領域と無彩文字領域と
に分離し、各領域に応じた最適処理を施す。
According to the present invention, the color determining unit of the character region determining unit separates the character region into the chromatic character region and the achromatic character region, and performs the optimum processing according to each region.

【0017】また本発明は、前記、画像処理装置を備え
ることを特徴とする画像形成装置である。
The present invention is also an image forming apparatus including the image processing device.

【0018】本発明に従えば、高精度の出力結果を作
り、高品質の画像を高速で出力することができる。
According to the present invention, it is possible to produce a highly accurate output result and output a high quality image at high speed.

【0019】また本発明は、入力画像を複数の領域に分
離する領域分離処理を行う画像処理方法において、領域
分離処理は、入力画像が文字領域に属するか否かを判定
し、文字領域に属すると判定された注目画素に対して
は、その濃度値が注目画素近傍の濃度値よりも高い高濃
度領域に属するのか、あるいは、濃度値が注目画素近傍
の濃度値よりも低い低濃度領域に属するのかを判定する
処理を行い、この判定結果に基づいて、入力画像の画像
処理内容を設定することを特徴とする画像処理方法であ
る。
Further, according to the present invention, in the image processing method for performing the area separation processing for separating the input image into a plurality of areas, the area separation processing determines whether the input image belongs to the character area and belongs to the character area. For the target pixel determined to be, the density value belongs to a high-density area having a higher density value than the density value in the vicinity of the target pixel or a low-density area having a density value lower than the density value in the vicinity of the target pixel. The image processing method is characterized by performing a process for determining whether or not and setting the image processing content of the input image based on the determination result.

【0020】本発明に従えば、注目画素が文字領域に属
するのか否かが判定され、その判定結果に基づいて文字
領域に属すると判定された注目画素に対して、その濃度
値が注目画素近傍の濃度値よりも高い高濃度領域に属す
るのか、濃度値が注目画素近傍の濃度値よりも低い低濃
度領域に属するのかが判定される。この判定結果に基づ
いて、入力画像の画像処理内容を設定する。
According to the present invention, it is determined whether or not the pixel of interest belongs to the character region, and the density value of the pixel of interest determined to belong to the character region is determined based on the result of the determination. It is determined whether it belongs to a high-density area higher than the density value of 1 or belongs to a low-density area where the density value is lower than the density value near the target pixel. Based on this determination result, the image processing content of the input image is set.

【0021】[0021]

【発明の実施の形態】図1は、本発明の一実施形態に係
る画像形成装置1に適用されるカラー画像処理装置2と
カラー画像入力装置3およびカラー画像出力装置4の構
成図である。この画像形成装置1は、たとえばデジタル
カラー複写機に好適に適用され、3色分解系の固体撮像
素子(CCD:Charge Coupled Device)から成るカラ
ー画像入力装置3(以下、画像入力装置3と呼ぶ)と、
カラー画像処理装置2(以下、画像処理装置2と呼ぶ)
と、たとえばインクジェット方式のプリンタなどのカラ
ー画像出力装置4(以下、画像出力装置4と呼ぶ)とを
有する。画像入力装置3によって取込まれた入力画像デ
ータに対して、画像処理装置2でもって所望の画像処理
を施し、その後、画像出力装置4にて出力画像が出力さ
れるようになっている。以下の説明において、入力画像
を複数の領域に分離する領域分離処理を施す画像処理方
法の説明をも含む。
1 is a block diagram of a color image processing device 2, a color image input device 3 and a color image output device 4 applied to an image forming apparatus 1 according to an embodiment of the present invention. The image forming apparatus 1 is preferably applied to, for example, a digital color copying machine, and is a color image input device 3 (hereinafter, referred to as an image input device 3) including a three-color separation type solid-state imaging device (CCD: Charge Coupled Device). When,
Color image processing apparatus 2 (hereinafter referred to as image processing apparatus 2)
And a color image output device 4 (hereinafter referred to as the image output device 4) such as an inkjet printer. The image processing apparatus 2 performs desired image processing on the input image data captured by the image input apparatus 3, and then the image output apparatus 4 outputs the output image. The following description also includes a description of an image processing method for performing area separation processing for separating an input image into a plurality of areas.

【0022】画像処理装置2は、アナログ/デジタル変
換部5(以下、A/D変換部5と呼ぶ)と、シェーディ
ング補正部6と、入力階調補正部7と、領域分離手段と
しての領域分離処理部8と、色補正部9と、黒生成下色
除去部10と、空間フィルタ処理部11と、出力階調補
正部12と、階調再現処理部13(中間調生成部13)
と、これらの処理を制御する制御手段としての中央処理
装置(CPU:Central Processing Unit)とを有す
る。画像入力装置3においては、原稿から反射してきた
光が赤R,緑G,青Bに色分解したカラー画像信号に変
換され、このカラー画像信号はA/D変換部5にてRG
Bデジタル信号に変換され、シェーディング補正部6に
て、画像入力装置3の照明系、結像系、撮像系で生じる
各種の歪みが取除かれる。
The image processing apparatus 2 includes an analog / digital conversion section 5 (hereinafter referred to as an A / D conversion section 5), a shading correction section 6, an input tone correction section 7, and area separation as area separation means. The processing unit 8, the color correction unit 9, the black generation undercolor removal unit 10, the spatial filter processing unit 11, the output gradation correction unit 12, and the gradation reproduction processing unit 13 (halftone generation unit 13).
And a central processing unit (CPU) as a control means for controlling these processes. In the image input device 3, the light reflected from the document is converted into a color image signal which is color-separated into red R, green G and blue B, and this color image signal is RG in the A / D converter 5.
After being converted into a B digital signal, the shading correction unit 6 removes various distortions generated in the illumination system, the imaging system, and the imaging system of the image input device 3.

【0023】次に、入力階調補正部7において、前記歪
みが取除かれたRGB信号(つまりRGBの反射率信
号)に対して、カラーバランスを整えると同時に、画像
処理に適した濃度信号に変換する処理が施される。ま
た、RGBの濃度信号は補色反転されてCin,Min,Y
in信号に変換される。領域分離処理部8では、Cin,M
in,Yin信号から、入力画素中の各画素を文字領域(第
1領域)、網点領域、写真領域のいずれかに分離する。
この領域分離処理部8は、分離結果に基づいて画素がい
ずれの領域に属しているかを示す領域識別信号を、黒生
成下色除去部10と、空間フィルタ処理部11と、階調
再現処理部13とへ出力するとともに、入力階調補正部
7から出力された入力信号をそのまま後段の色補正部9
に出力する。
Next, in the input tone correction unit 7, the RGB signal from which the distortion has been removed (that is, the reflectance signal of RGB) is adjusted in color balance and at the same time a density signal suitable for image processing is obtained. A conversion process is performed. Further, the RGB density signals are complemented by Cin, Min, Y
converted to in signal. In the area separation processing unit 8, Cin, M
From the in and Yin signals, each pixel in the input pixels is separated into a character area (first area), a halftone dot area, or a photographic area.
The area separation processing unit 8 outputs an area identification signal indicating which area a pixel belongs to, based on the separation result, to a black generation undercolor removal unit 10, a spatial filter processing unit 11, and a gradation reproduction processing unit. 13 and outputs the input signal output from the input gradation correction unit 7 as it is to the color correction unit 9 in the subsequent stage.
Output to.

【0024】色補正部9においては、色再現性を高める
ために、不要吸収成分を含むシアン、マゼンタ、イエロ
ー色材つまりCMY色材の分光特性に基づいた色濁りを
取除く処理が施される。その後、黒生成下色除去部10
において、色補正後のCMYの3色信号から黒(K)信
号を生成する処理が行われ、シアン、マゼンタ、イエロ
ー、ブラックすなわちCMYK4色信号に変換されるよ
うになっている。黒生成処理の一例として、スケルトン
ブラックによる黒生成を行なう一般的方法がある。この
方法では、スケルトンカーブの入出力特性をy=f
(x)、入力されるデータをC,M,Y,出力されるデ
ータをC”,M”,Y”,K'、下色除去UCR(Under
Color Removal)率をα(0<α<1)とすると、黒生
成下色除去処理は以下の数1で表わされる。
In the color correction unit 9, in order to improve color reproducibility, a process for removing color turbidity based on the spectral characteristics of cyan, magenta, and yellow color materials containing unnecessary absorption components, that is, CMY color materials is performed. . After that, the black generation undercolor removal unit 10
In the above, a process of generating a black (K) signal from the color-corrected CMY three-color signals is performed, and is converted to cyan, magenta, yellow, black, that is, CMYK four-color signals. As an example of black generation processing, there is a general method of generating black by skeleton black. In this method, the input / output characteristics of the skeleton curve are y = f
(X), input data is C, M, Y, output data is C ″, M ″, Y ″, K ′, undercolor removal UCR (Under
When the color removal rate is α (0 <α <1), the black generation undercolor removal process is expressed by the following mathematical expression 1.

【0025】[0025]

【数1】[Equation 1]

【0026】空間フィルタ処理部11は、黒生成下色除
去部10から入力されるCMYK信号の画像データに対
して、領域識別信号を基にデジタルフィルタによる空間
フィルタ処理を行い、空間周波数特性を補正することに
よって出力画像のぼやけや粒状性劣化を防ぐように処理
するものであって、階調再現処理部13も、空間フィル
タ処理部11と同様に、CMYK信号の画像データに対
して、領域識別信号を基に所定の処理を施すものであ
る。たとえば、領域分離処理部8にて文字に分離された
領域すなわち文字領域は、特に黒文字または色文字の再
現性を高めるために、空間フィルタ処理部11による空
間フィルタ処理における鮮鋭強調処理を行うことで高周
波数の強調量が大きくされる。同時に、階調再現処理部
13においては、高域周波数の再現に適した高解像度の
スクリーンでの2値化または多値化処理が選択される。
The spatial filter processing unit 11 performs spatial filter processing by a digital filter on the image data of the CMYK signals input from the black generation and undercolor removal unit 10 based on the area identification signal to correct the spatial frequency characteristic. In this way, the gradation reproduction processing unit 13 also performs region identification for the image data of the CMYK signals, like the spatial filter processing unit 11, by performing processing so as to prevent blurring and graininess deterioration of the output image. A predetermined process is performed based on the signal. For example, the region separated into characters by the region separation processing unit 8, that is, the character region, is subjected to sharpness enhancement processing in the spatial filter processing by the spatial filter processing unit 11 in order to improve the reproducibility of black characters or color characters. The amount of high frequency emphasis is increased. At the same time, the gradation reproduction processing unit 13 selects binarization or multi-value conversion processing on a high resolution screen suitable for reproduction of high frequency.

【0027】また、領域分離処理部8にて網点に分離さ
れた領域に関しては、空間フィルタ処理部11におい
て、入力網点成分を除去するためのローパスフィルタ処
理が施される。そして、出力階調補正部12では、濃度
信号などの信号をカラー画像出力装置4の特性値である
網点面積率に変換する出力階調補正処理を行った後、階
調再現処理部13において、最終的に画像を画素に分離
してそれぞれの階調を再現できるように処理する階調再
現処理(中間調生成)が施される。領域分離処理部8に
て写真に分離された領域に関しては、階調再現性を重視
したスクリーンでの2値化または多値化処理が行われ
る。上述した各処理が施された画像データは、たとえば
読書き可能メモリつまりRAMなどの記憶手段に一旦記
憶され、所定のタイミングで読出されて画像出力装置4
に入力される。
The area separated into halftone dots by the area separation processing unit 8 is subjected to low-pass filter processing for removing the input halftone dot component in the spatial filter processing unit 11. Then, the output gradation correction unit 12 performs an output gradation correction process for converting a signal such as a density signal into a halftone dot area ratio, which is a characteristic value of the color image output device 4, and then, in the gradation reproduction processing unit 13. Finally, gradation reproduction processing (halftone generation) is performed so as to separate the image into pixels and reproduce each gradation. For the areas separated into photographs by the area separation processing unit 8, binarization or multi-value conversion processing on the screen with emphasis on gradation reproducibility is performed. The image data that has been subjected to each of the processes described above is temporarily stored in a storage unit such as a readable / writable memory, that is, a RAM, and is read at a predetermined timing to be read by the image output device 4.
Entered in.

【0028】図2は領域分離処理部8の構成図であり、
図3は、注目画素の周辺に7×7画素の局所マスクを形
成した場合の説明図であり、図4は水平方向のエッジと
垂直方向のエッジを検出する方法を説明する図である。
領域分離処理部8は、文字領域判定部14と網点領域判
定部15とを有し、入力信号Cin,Min,Yin(RGB
信号を補色反転したデータ)に対して注目画素を中心と
した局所マスクを形成して領域分離処理を施し、少なく
とも文字領域と、文字領域以外の第2領域に相当する領
域(網点領域)とに分離する。文字領域でも網点領域で
もない場合には、写真領域と判定する。文字領域判定部
14は、文字領域抽出部または第1領域抽出部としての
文字領域検出部16と、濃淡領域抽出部としての高濃度
領域低濃度領域抽出部17とを有し、文字領域検出部1
6において文字の特徴を有する領域を抽出し、誤判別を
極力抑制するために、垂直エッジ検出部18と水平エッ
ジ検出部19とから成るエッジ検出部20にてエッジ検
出を行い、パターンマッチング部21にてパターンマッ
チングを行って文字領域を分離する。さらに、文字領域
を高濃度部と低濃度部とに分ける。
FIG. 2 is a block diagram of the area separation processing section 8,
FIG. 3 is an explanatory diagram in the case where a local mask of 7 × 7 pixels is formed around the target pixel, and FIG. 4 is a diagram illustrating a method of detecting a horizontal edge and a vertical edge.
The area separation processing section 8 includes a character area determination section 14 and a halftone dot area determination section 15, and the input signals Cin, Min, Yin (RGB
A local mask centered on the pixel of interest is formed on the signal (data obtained by inverting the complementary color of the signal) and area separation processing is performed, and at least a character area and an area (halftone dot area) corresponding to the second area other than the character area are formed. To separate. If it is neither a character area nor a halftone dot area, it is determined to be a photograph area. The character area determination unit 14 includes a character area detection unit 16 as a character area extraction unit or a first area extraction unit, and a high-density area / low-density area extraction unit 17 as a shaded area extraction unit. 1
In FIG. 6, the area having the character feature is extracted, and in order to suppress misjudgment as much as possible, the edge detection unit 20 including the vertical edge detection unit 18 and the horizontal edge detection unit 19 performs edge detection, and the pattern matching unit 21. Pattern matching is performed to separate character areas. Further, the character area is divided into a high density portion and a low density portion.

【0029】高濃度領域低濃度領域抽出部17(以下、
濃度抽出部17と呼ぶ)は、相対濃度判定部22と、絶
対濃度判定部23と、高濃度/低濃度判定部24とで構
成され、文字領域検出部16の判定結果に基づいて、文
字領域に属すると判定された注目画素に対してその濃度
値が注目画素近傍の濃度値よりも高い高濃度領域(高濃
淡領域)に属するのか、濃度値が注目画素近傍の濃度値
よりも低い低濃度領域(低濃淡領域)に属するのかを判
定する機能を有する。判定信号生成部25においては、
文字領域検出部16と濃度抽出部17とから出力された
信号をもとに文字領域を高濃度文字領域(高濃度領域)
と低濃度文字領域(低濃度領域)とに分離する信号を生
成するようになっている。
High density area Low density area extraction unit 17 (hereinafter,
The density extraction unit 17) is composed of a relative density determination unit 22, an absolute density determination unit 23, and a high density / low density determination unit 24, and based on the determination result of the character region detection unit 16, the character region Whether the density value of the pixel of interest determined to belong to a high density area (high density area) that is higher than the density value of the pixel near the pixel of interest It has a function of determining whether it belongs to a region (low gray region). In the determination signal generator 25,
A character area is defined as a high-density character area (high-density area) based on signals output from the character area detection unit 16 and the density extraction unit 17.
And a low-density character area (low-density area) is generated.

【0030】図5は複数の文字検出用パターンの説明図
であり、図6は、パターンマッチングを行う際に7×7
画素の局所マスク内に3×3画素のサブマスクを形成し
た様子を示す説明図であり、図7はラプラシアンフィル
タ係数を示す図であり、図8は下色除去処理を施す際の
説明図であり、図9は、文字領域判定処理のフローチャ
ートである。ここで、Si(i=1,2,3,…)はス
テップを示す。RGB信号を補色反転した信号である入
力信号Cin,Min,Yinに対し、処理対象の注目画素を
(i,j)とすると、この注目画素における入力信号値は
(Cin(i,j),Min(i,j),Yin(i,j))で与え
られるものとする。ステップ1では、文字領域検出部1
6において文字領域検出処理が行われ、次に、ステップ
2およびステップ3に移行して、注目画素点の周辺に対
しM×N画素の局所マスク(図3参照)を形成し、たと
えば隣接する画素間の差分(図4参照)を求め、その差
分をしきい値処理することによって、エッジを検出す
る。いま、注目画素(i,j)における局所マスクに属す
る画素Mask(i,j)を次の数2のように定義する。
FIG. 5 is an explanatory view of a plurality of character detection patterns, and FIG. 6 shows 7 × 7 when pattern matching is performed.
FIG. 8 is an explanatory diagram showing a state where a 3 × 3 pixel sub-mask is formed in a local mask of pixels, FIG. 7 is a diagram showing Laplacian filter coefficients, and FIG. 8 is an explanatory diagram when performing undercolor removal processing. 9 is a flowchart of the character area determination process. Here, Si (i = 1, 2, 3, ...) Indicates a step. When the target pixel to be processed is (i, j) with respect to the input signals Cin, Min, and Yin which are signals obtained by inverting the RGB signals, the input signal value at the target pixel is (Cin (i, j), Min (I, j), Yin (i, j)). In step 1, the character area detection unit 1
6, the character area detection process is performed, and then the process proceeds to steps 2 and 3 to form a local mask of M × N pixels (see FIG. 3) around the target pixel point, and An edge is detected by obtaining the difference (see FIG. 4) and thresholding the difference. Now, the pixel Mask(i, j) belonging to the local mask in the pixel of interest (i, j) is defined as in the following Expression 2.

【0031】[0031]

【数2】[Equation 2]

【0032】数2から垂直方向のエッジ画素EdgeV(i,j)
および水平方向のエッジ画素EdgeH(i,j)は、それぞれ数
3および数4のように表される。
From equation 2, the edge pixel in the vertical direction EdgeV(i, j)
And the edge pixel EdgeH(i, j) in the horizontal direction are expressed as in Expressions 3 and 4, respectively.

【0033】[0033]

【数3】[Equation 3]

【0034】[0034]

【数4】[Equation 4]

【0035】これら数3を含む垂直エッジ検出部18
と、数4を含む水平エッジ検出部19とによって、垂直
方向および水平方向のエッジを検出する(図4参照)。
ただし、この方法では端1画素分エッジを検出すること
ができないため便宜上端にエッジ無しを代入し、局所マ
スクと同サイズの垂直方向および水平方向のエッジ検出
を行う。その後ステップ4に移行して検出結果の論理和E
dgeV(i,j) ∪EdgeH(i,j)を求め、エッジ検出結果Edge
(i,j)とする。
The vertical edge detecting unit 18 including these three
And the horizontal edge detecting unit 19 including the equation 4 detects edges in the vertical direction and the horizontal direction (see FIG. 4).
However, this method cannot detect an edge for one pixel at the edge, and therefore, for the sake of convenience, no edge is substituted for the edge and edge detection in the vertical and horizontal directions of the same size as the local mask is performed. After that, the process proceeds to step 4 and the logical sum E of the detection results
dgeV(i, j) ∪ EdgeH(i, j) is calculated and the edge detection result Edge
Let (i, j) .

【0036】ステップ5にて検出されたエッジEdge
(i,j)に対し、ステップ6においてパターンマッチング
処理を行って文字領域をさらに分離する。つまり、前記
エッジEdge(i,j)に対し、図6に示すように、たとえば
7×7のマスク内に3×3のサブマスクを形成し、その
3×3のサブマスクが7×7のマスク全てを覆うように
1画素ずらしながら走査することによって、図5に示す
テンプレートを検出する。同じパターンが検出された場
合に、処理を行っている注目画素点が文字領域であると
判定するようになっている。
Edge detected in step 5 Edge
In step 6, pattern matching processing is performed on(i, j) to further separate the character area. That is, for the edge Edge(i, j) , as shown in FIG. 6, for example, a 3 × 3 submask is formed in a 7 × 7 mask, and the 3 × 3 submask is all 7 × 7 masks. The template shown in FIG. 5 is detected by scanning while shifting by 1 pixel so as to cover. When the same pattern is detected, it is determined that the pixel point of interest being processed is a character area.

【0037】前記同じパターンが検出された場合には、
ステップ8,9に移行して、相対濃度判定部22(ラプ
ラシアンフィルタ22)にてラプラシアンフィルタ処理
と、絶対濃度判定部23にて絶対濃度判定処理とが並列
に行われる。ステップ8においてラプラシアンフィルタ
22では、中心画素点の濃度が周辺(中心画素点近傍)
の濃度より低いときにはフィルタ処理後の値が負の値
に、逆に中心画素点の濃度が周辺(中心画素点近傍)の
濃度より高いときにはフィルタ処理後の値が正の値をと
ることを利用して注目画素点が高濃度であるか低濃度で
あるかを判定するようになっている。すなわち、図7に
示すフィルタ係数を、注目画素点を中心に形成されてい
る局所マスクに畳込みすることによって得られるフィル
タ値をしきい値処理することによって、注目画素点が高
濃度であるか低濃度であるかを判定する。高濃度 Laplacian(x,y)*Mask(i,j)≧0低濃度 Laplacian(x,y)*Mask(i,j)<0ただし、*は
コンボリューション演算
If the same pattern is detected,
Moving to steps 8 and 9, the Laplacian filter process is performed by the relative density determination unit 22 (Laplacian filter 22) and the absolute density determination process is performed by the absolute density determination unit 23 in parallel. In step 8, in the Laplacian filter 22, the density of the central pixel point is the periphery (near the central pixel point).
When the density is lower than the density of, the filtered value is negative, and conversely, when the density of the central pixel point is higher than the density of the periphery (near the central pixel point), the filtered value is positive. Then, it is determined whether the pixel of interest has a high density or a low density. That is, by performing threshold processing on the filter value obtained by convoluting the filter coefficient shown in FIG. 7 with the local mask formed around the pixel of interest, whether the pixel of interest has a high density or not. Determine if the concentration is low. High concentration Laplacian (x, y) * Mask(i, j) ≧ 0 Low concentration Laplacian (x, y) * Mask(i, j) <0 where * is a convolution operation

【0038】ラプラシアンフィルタ22では、周辺画素
のフィルタ係数(周辺係数)が注目画素のフィルタ係数
に実質距離において近い場合と離れた場合とが設定で
き、機器の状況によって予め設定する。具体的には、周
辺係数が離れている場合、注目画素点から少しはなれた
画素点で相対濃度値を見るため小さい文字などにおいて
うまく高濃度と低濃度の判定ができない場合がある。一
方、係数間の距離を短くした場合、注目画素点と相対濃
度値を見に行く画素が近すぎるため濃度差が出にくいと
いった特徴があるため、係数の配置は適切に決める必要
がある。ステップ9において絶対濃度判定部23では、
注目画素の濃度値を予め定められるしきい値と比較し、
高濃度部、低濃度部の判定を行う。
In the Laplacian filter 22, it is possible to set whether the filter coefficient of the peripheral pixel (peripheral coefficient) is close to or far from the filter coefficient of the pixel of interest in substantial distance, and it is set in advance depending on the situation of the device. Specifically, when the peripheral coefficients are far apart, the relative density value is seen at a pixel point that is slightly apart from the pixel point of interest, so that high density and low density may not be determined well in small characters. On the other hand, when the distance between the coefficients is shortened, there is a feature that the density difference is less likely to occur because the pixel of interest and the pixel for which the relative density value is to be seen are too close. Therefore, it is necessary to appropriately determine the arrangement of the coefficients. In step 9, the absolute concentration determination unit 23
Compare the density value of the pixel of interest with a predetermined threshold value,
The high density area and the low density area are determined.

【0039】ステップ10において、高濃度/低濃度判
定部24では、上述したラプラシアンフィルタ22およ
び絶対濃度判定部23の少なくとも一方の判定部によっ
て、判定対象の注目画素が高濃度部であるとの信号が出
力されると前記注目画素は高濃度部であると判定され
る。本実施形態においては、濃度抽出部17を、相対濃
度判定部22と絶対濃度判定部23と高濃度/低濃度判
定部24とで構成したが、高濃度/低濃度判定部24を
省略するとともにラプラシアンフィルタ22および絶対
濃度判定部23のいずれか一方の判定部を設けた濃度抽
出部17を適用することも可能である。
In step 10, the high-density / low-density determining unit 24 outputs a signal indicating that the pixel of interest to be determined is the high-density region by at least one of the Laplacian filter 22 and the absolute density determining unit 23 described above. Is output, it is determined that the target pixel is a high density portion. In the present embodiment, the concentration extraction unit 17 is composed of the relative concentration determination unit 22, the absolute concentration determination unit 23, and the high concentration / low concentration determination unit 24, but the high concentration / low concentration determination unit 24 is omitted. It is also possible to apply the density extraction unit 17 provided with one of the Laplacian filter 22 and the absolute density determination unit 23.

【0040】以上、求められた注目画素点の文字領域判
定結果と高濃度/低濃度判定結果を以下の表1〜3をも
とに切替え判定信号を生成する。
As described above, the switching determination signal is generated based on the following Tables 1 to 3 based on the obtained character area determination result and the high density / low density determination result of the pixel of interest.

【0041】[0041]

【表1】[Table 1]

【0042】以上算出された注目画素点での切替え判定
結果を元に、以下の出力処理を切換える。
The following output processing is switched based on the switching determination result at the pixel of interest calculated above.

【0043】[0043]

【表2】[Table 2]

【0044】中間調処理において、文字領域・高濃度と
判定された場合には、ステップ11,12に移行して出
力装置固有の最小単位である1x1の出力を行い、文字
領域・低濃度と判定された場合には、ステップ13,1
4に移行して例えば8x8のマスクサイズを用いて面積
変調処理の一種であるディザ処理を行うものとする。こ
のときのディザ処理としては、たとえば一般的に用いら
れている組織的ディザマトリクス方を用いて処理するも
のとする。しかし、この中間調処理はディザマトリクス
法に限定するものではなく、誤差拡散など、さまざまな
中間調処理を適応することが可能である。それ故、文字
領域でかつ高濃度領域と、その他領域の間に、文字領域
でかつ低濃度領域を設けることによって、文字領域とそ
の他領域との間のギャップを極力抑制することができ、
高画質の出力を行うことが可能になる。
In the halftone processing, when it is determined that the character area / high density, the process proceeds to steps 11 and 12 to output 1 × 1, which is the minimum unit peculiar to the output device, and the character area / low density is determined. If so, steps 13, 1
4, the dither processing, which is a kind of area modulation processing, is performed using a mask size of 8 × 8, for example. As the dither processing at this time, for example, a commonly used systematic dither matrix method is used. However, this halftone process is not limited to the dither matrix method, and various halftone processes such as error diffusion can be applied. Therefore, by providing the character region and the low density region between the character region and the high density region, the gap between the character region and the other region can be suppressed as much as possible,
It becomes possible to perform high-quality output.

【0045】図11は文字領域判定部に色判定部26を
設けた図2相当図であり、図12は文字領域判定処理の
フローチャートである。ここで、Si(i=1,2,
3,…)はステップを示す。図11に示す領域分離処理
部8Aにおいては、前記実施形態のエッジ検出部20に
色判定部26がさらに設けられた構成になっている。た
だし、前記実施形態と同一の部材には同一の符号を付
し、その説明は適宜省略する。通常、有彩色文字は解像
度を重視する場合と、有彩色文字の色再現性を重視する
場合とが存在するため、本実施形態では、文字領域をさ
らに無彩色文字と有彩色文字とに分離し、無彩色文字領
域に対してだけ出力処理の切替えを行う。エッジ検出部
20でエッジが検出され、色判定部26で無彩色文字と
判定されたとき、後段のパターンマッチング部21で処
理を行う。それ以外の場合、パターンマッチング部21
での処理はスルーとなる。
FIG. 11 is a diagram corresponding to FIG. 2 in which the character area determination section is provided with the color determination section 26, and FIG. 12 is a flowchart of the character area determination processing. Here, Si (i = 1, 2,
3, ...) indicates steps. The area separation processing unit 8A shown in FIG. 11 has a configuration in which a color determination unit 26 is further provided in the edge detection unit 20 of the above embodiment. However, the same members as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be appropriately omitted. Normally, there are cases in which emphasis is placed on resolution of chromatic color characters and cases in which importance is attached to color reproducibility of chromatic color characters, so in the present embodiment, the character area is further divided into achromatic color characters and chromatic color characters. , The output processing is switched only for the achromatic character area. When the edge detection unit 20 detects an edge and the color determination unit 26 determines that the character is an achromatic character, the pattern matching unit 21 in the subsequent stage performs processing. In other cases, the pattern matching unit 21
The process in is through.

【0046】ステップScoにおける色判定処理について
は、注目画素点での各色間の濃度差を用いて色判定処理
する。なお、注目画素点を中心にマスクを形成し、注目
画素点と周辺画素(注目画素近傍の画素)との濃度情報
を用いて、スキャン時に生じる色ずれを補正する方法を
用いることもできる。注目画素点(i,j)での入力信
号値を(Cin(i,j),Min(i,j),Yin(i,j))
とすると、色判定処理は数5によって行われる。
Regarding the color determination processing in step Sco, the color determination processing is performed using the density difference between the colors at the pixel of interest. It is also possible to use a method in which a mask is formed centering on the pixel of interest and density information of the pixel of interest and peripheral pixels (pixels in the vicinity of the pixel of interest) is used to correct color misregistration that occurs during scanning. The input signal value at the pixel of interest (i, j) is (Cin (i, j), Min (i, j), Yin (i, j))
Then, the color determination process is performed according to Equation 5.

【0047】[0047]

【数5】[Equation 5]

【0048】ただし、THcolorは色判定用しきい値
で、予め設定する定数である。前記色判定結果と、上述
した実施形態で求めた各判定結果を用いて以下の判定処
理を行う。
However, THcolor is a threshold value for color judgment and is a preset constant. The following determination process is performed using the color determination result and each determination result obtained in the above-described embodiment.

【0049】[0049]

【表3】[Table 3]

【0050】それ故、無彩文字領域の高濃度部に対して
のみ最小単位で出力を行い、解像度重視となり、その他
の領域では階調性重視の中間調処理を行い、階調性を保
持することが可能となる。
Therefore, only the high density portion of the achromatic character area is output in the minimum unit, the resolution is emphasized, and the gradation is emphasized in the other areas to maintain the gradation. It becomes possible.

【0051】図10は黒生成量・URC量の例を示す図
表である。黒文字・高濃度、黒文字・低濃度、その他
(黒文字・高濃度、黒文字・低濃度以外)それぞれにつ
いて、min(C,M,Y)に対する黒生成量(図10
a参照)、URC量(図10b参照)が予め定められて
おり、これに基づいて処理がなされる。高濃度部では出
力機器固有の最小単位で出力するため、階調性が悪くな
っている。したがって、無彩色文字の高濃度部はできる
だけ下色を除去するように設定した方が精度を高めるう
えで重要である。また、無彩色文字の低濃度部に対して
は、高濃度部に比べて中間調処理を行うため階調性を高
めた出力が可能であるが、無彩領域である場合、下色処
理を行うものとする。
FIG. 10 is a table showing an example of black generation amount / URC amount. For black characters / high density, black characters / low density, and others (other than black characters / high density, black characters / low density), the black generation amount for min (C, M, Y) (see FIG. 10).
a) and the URC amount (see FIG. 10b) are determined in advance, and the processing is performed based on these. In the high-density area, since the minimum unit specific to the output device is used, the gradation is poor. Therefore, it is important to set the high density portion of the achromatic character so that the undercolor is removed as much as possible in order to improve the accuracy. Also, for low-density areas of achromatic characters, halftone processing is performed compared to high-density areas, so it is possible to output with improved gradation, but in the case of achromatic areas, undercolor processing is performed. Assumed to be performed.

【0052】下色除去処理は、黒文字として検出された
領域に対しては、3色の色材(C,M,Y)を用いた場
合、3色で表現された黒が多少着色した不完全な黒とな
るため高濃度の黒を表現することができないことと、各
色の位置ずれが生じると黒領域の周囲に色にじみが発生
するおそれがあるため、3色C,M,Y色材で黒を生成
することなく、黒の色材を用いて再現する方が画質を向
上させることができるため、なされるものである。この
方法は、CMYのうち最小レベルの信号値(min
(C,M,Y):MIN信号)に係数αをかけたα・
{min(C,M,Y)}をグレイ成分と考えて下色除
去(Under Color Removal :UCR)を行い、それに見
合う黒(K)を加え、さらに黒文字領域と識別された場
合にはC,M,Yの色成分を完全に取除く処理が施され
る。一方、色文字として識別された領域では、反対に黒
色材を使用せずに純粋に3色色材のみによって出力を形
成した方が良好に再現する事が可能である。
In the undercolor removal processing, in the case where three color materials (C, M, Y) are used for the area detected as a black character, the black represented by the three colors is incompletely colored. It is impossible to express high density black because it becomes black, and if color misregistration occurs, color fringing may occur around the black area. Therefore, the three color C, M, and Y color materials are used. This is done because the image quality can be improved by reproducing using a black color material without generating black. In this method, the minimum signal value (min
(C, M, Y): MIN signal) multiplied by coefficient α
Under color removal (UCR) is performed by considering {min (C, M, Y)} as a gray component, and black (K) is added to match it, and when it is identified as a black character area, C, Processing for completely removing the M and Y color components is performed. On the other hand, in the area identified as a color character, on the contrary, it is possible to reproduce better if the output is formed purely by the three color materials without using the black material.

【0053】上記した文字領域検出部16での文字の特
徴を有する領域を抽出する方法および網点領域判定部1
5での処理方法としては、例えば「画像電子学会研究会
予稿90−06−04」に記載されている方法を用いる
ことができる。すなわち、注目画素を中心としたM×N
(M,Nは自然数) 画素のブロック内で以下のような判
定を行い、それを注目画素の領域識別信号とする。ブロ
ック内の画素に対して信号レベルの平均値Daveを求
め、その平均値を用いてブロック内の各画素を2値化す
る。また、最大画素信号レベルDmax、最小画素信号レ
ベルDminも同時に求める。
Method for extracting an area having character characteristics in the character area detecting section 16 and halftone dot area judging section 1
As the processing method in No. 5, for example, the method described in “Society of Image Electronics Engineers of Japan Preliminary Report 90-06-04” can be used. That is, M × N centering on the pixel of interest
(M and N are natural numbers) The following determinations are made in a pixel block, and this is used as the area identification signal of the pixel of interest. The average value Dave of the signal level is obtained for the pixels in the block, and each pixel in the block is binarized using the average value. Further, the maximum pixel signal level Dmax and the minimum pixel signal level Dmin are also obtained at the same time.

【0054】網点領域では、小領域における画像信号の
変動が大きいことと、背景に比べて濃度が高いこととを
利用し、網点領域を識別する。2値化されたデータに対
して主走査方向および副走査方向でそれぞれ0から1へ
の変化点数、1から0への変化点数を求めて、それぞれ
H,KVとし、しきい値TH,TVと比較して両者が共に
しきい値を上回ったら網点領域とする。また、背景との
誤判定を防ぐために、先に求めたDmax,Dmin,Dave
をしきい値B1,B2と比較する。つまり、最大画素信号
レベルDmaxから信号レベルの平均値Daveを減じた値が
しきい値B1より大きく(Dmax −Dave >B1)、か
つ、信号レベルの平均値Daveから最小画素信号レベル
Dminを減じた値がしきい値B2より大きく(Dave −D
min >B2)、かつ、KH >TH 、かつ、KV >TVなら
ば網点領域であり、そうでなければ非網点領域である。
In the halftone dot area, the halftone dot area is identified by utilizing the large fluctuation of the image signal in the small area and the high density compared to the background. For the binarized data, the number of change points from 0 to 1 and the number of change points from 1 to 0 are obtained in the main scanning direction and the sub-scanning direction, respectively, and are set as KH and KV , respectively, and the threshold value TH is set. , TV when both of them exceed the threshold value, the halftone dot area is defined. In addition, in order to prevent erroneous determination with the background, Dmax, Dmin, Dave previously obtained
Is compared with the threshold values B1 and B2 . That is, the value obtained by subtracting the average value Dave of the signal levels from the maximum pixel signal level Dmax is larger than the threshold value B1 (Dmax-Dave> B1 ), and the minimum pixel signal level Dmin is calculated from the average value Dave of the signal levels. The subtracted value is larger than the threshold value B2 (Dave −D
min> B2 ) and KH > TH and KV > TV , it is a halftone dot region, and otherwise it is a non-halftone dot region.

【0055】文字領域では、最大信号レベルと最小信号
レベルとの差が大きく、濃度も高いと考えられることか
ら、文字領域の識別を以下のように行う。最大信号レベ
ルと、最小信号レベルと、それらの差分 Dsubを、しき
い値PA ,PB ,PC とそれぞれ比較し、Dmax >PA
またはDmin <PBまたはDsub >PCの条件を充たすな
らば文字領域とする。網点領域でも文字領域でもない領
域の画素はその他(写真)領域とする。
In the character area, since the difference between the maximum signal level and the minimum signal level is large and the density is considered to be high, the character area is identified as follows. The maximum signal level, the minimum signal level, and their difference Dsub are compared with the threshold values PA , PB , and PC , respectively, and Dmax> PA
Alternatively, if the condition of Dmin <PB or Dsub> PC is satisfied, the character area is set. Pixels in a region that is neither a halftone dot region nor a character region are other (photo) regions.

【0056】以上説明した画像処理装置2によれば、文
字領域を高濃度領域と低濃度領域とに分離したうえ、そ
れぞれの領域に対して、設定された処理内容の処理すな
わち最適な画像処理を施すことによって、文字領域とそ
の他の領域との間に生じるギャップを極力抑制すること
ができる。それ故、出力画質の向上を図ることができ
る。また、文字領域以外のその他領域に、ある程度の濃
度が存在する際(例えば有彩色の下地領域)において
も、文字領域内部を高濃度領域に属するものと低濃度領
域に属するものとに分離したうえ、高濃度領域に属する
と判定された注目画素に対しては、解像度を重視した処
理を施し、低濃度領域に属すると判定された注目画素に
対しては、諧調性を重視した処理を行うことによって、
文字領域と前記その他領域との境界付近部のギャップを
削減することが可能となる。
According to the image processing apparatus 2 described above, the character area is separated into the high density area and the low density area, and the processing of the set processing content, that is, the optimum image processing is performed for each area. By applying it, the gap between the character area and other areas can be suppressed as much as possible. Therefore, the output image quality can be improved. In addition, even when there is a certain amount of density in the area other than the character area (for example, a chromatic background area), the inside of the character area is divided into a high density area and a low density area. , The pixel of interest determined to belong to the high-density region is subjected to the processing with emphasis on resolution, and the pixel of interest determined to belong to the low-density region is subjected to the process of emphasis on gradation. By
It is possible to reduce the gap near the boundary between the character area and the other area.

【0057】また、下色除去処理を高濃度領域/低濃度
領域によって切換えることによって、文字領域とその他
の領域のギャップを精度よく制御することが可能とな
る。また、文字領域は通常解像度を重視した出力を行う
ことによって再現性を高めることが可能であるが、有彩
文字領域においては必ずしも解像度を高めることによっ
て画質を高めることができない場合が存在する。たとえ
ば、画像出力装置の性能上、色の再現性が十分に確保で
きない状況では、解像度を高める出力を行うことによっ
て色が大きく変わってしまい逆に違和感を生じる可能性
がある。こういった場合、解像度重視の出力を行うので
はなく複数画素を組み合わせて階調性を高めることによ
って色の再現性を高めることが可能となる。このような
画像処理装置2を備える画像形成装置に1よれば、高精
度の出力結果を作り、高品質の画像を高速で出力するこ
とができる。
By switching the undercolor removal processing depending on the high density area / low density area, the gap between the character area and the other areas can be controlled with high accuracy. In addition, although it is possible to improve reproducibility in a character area by performing output with emphasis on normal resolution, in a chromatic character area, image quality cannot always be improved by increasing resolution. For example, in a situation in which sufficient color reproducibility cannot be ensured due to the performance of the image output device, the output may be changed to a higher resolution, so that the color may change significantly, which may cause a sense of discomfort. In such a case, color reproducibility can be improved by combining a plurality of pixels to improve gradation, instead of outputting with emphasis on resolution. According to the image forming apparatus 1 including the image processing apparatus 2 as described above, it is possible to produce a highly accurate output result and output a high quality image at high speed.

【0058】本発明の実施の他の形態として、第1領域
は文字領域だけに限定されるものではなく、たとえば文
字領域を含む罫線領域を含む場合もある。本実施形態に
おいては、図2に示すように、エッジ検出処理、パター
ンマッチング処理と、高濃度領域低濃度領域抽出処理と
を並列処理する例を示しているが(ハードを構成する上
で好ましいため)、これらは、順次処理を行う構成とし
ても構わない。上述したエッジ検出法は、必ずしも差分
によるしきい値処理によって検出するものではなく、さ
まざまなエッジ検出法を利用することが可能である。そ
の他、前記実施形態に、特許請求の範囲を逸脱しない範
囲において種々の部分的変更を行う場合もある。
As another embodiment of the present invention, the first area is not limited to the character area but may include, for example, a ruled line area including the character area. In the present embodiment, as shown in FIG. 2, an example in which the edge detection process, the pattern matching process, and the high-density region / low-density region extraction process are processed in parallel is shown (because this is preferable in configuring hardware. ), These may be configured to perform sequential processing. The edge detection method described above does not necessarily detect the threshold value by the difference, and various edge detection methods can be used. In addition, various partial modifications may be made to the above-described embodiment without departing from the scope of the claims.

【0059】[0059]

【発明の効果】以上のように本発明によれば、第1領域
を高濃淡領域と低濃淡領域とに分離したうえ、それぞれ
の領域に対して、設定された処理内容の処理すなわち最
適な画像処理を施すことによって、第1領域とその他領
域との間に生じるギャップを極力抑制することができ
る。それ故、出力画質の向上を図ることができる。
As described above, according to the present invention, the first area is separated into the high density area and the low density area, and the processing of the set processing content, that is, the optimum image is performed for each area. By performing the treatment, the gap generated between the first region and the other region can be suppressed as much as possible. Therefore, the output image quality can be improved.

【0060】また本発明によれば、文字領域を高濃度領
域と低濃度領域とに分離したうえ、それぞれの領域に対
して、設定された処理内容の処理すなわち最適な画像処
理を施すことによって、文字領域とその他の領域との間
に生じる上のギャップを極力抑制することができる。そ
れ故、出力画質の向上を図ることができる。
Further, according to the present invention, the character area is separated into the high density area and the low density area, and the processing of the set processing contents, that is, the optimum image processing is performed on each area. The upper gap generated between the character area and the other area can be suppressed as much as possible. Therefore, the output image quality can be improved.

【0061】また本発明によれば、文字領域以外のその
他領域に、ある程度の濃度が存在する際においても、文
字領域内部を高濃度領域に属するものと低濃度領域に属
するものとに分離したうえ、高濃度領域に属すると判定
された注目画素に対しては、解像度を重視した処理を施
し、低濃度領域に属すると判定された注目画素に対して
は、階調性を重視した処理を行うことによって、文字領
域と前記その他領域との境界付近部のギャップを削減す
ることが可能となる。
Further, according to the present invention, even when a certain amount of density exists in the other areas other than the character area, the inside of the character area is divided into a high density area and a low density area. , The pixel of interest determined to belong to the high-density region is subjected to the processing with emphasis on resolution, and the pixel of interest determined to belong to the low-density region is subjected to the process of emphasis on gradation. As a result, it is possible to reduce the gap near the boundary between the character area and the other area.

【0062】また本発明によれば、下色除去処理を高濃
度領域/低濃度領域によって切換えることによって、文
字領域とその他の領域のギャップを精度よく制御するこ
とが可能となる。
Further, according to the present invention, the gap between the character area and the other area can be accurately controlled by switching the undercolor removal processing depending on the high density area / low density area.

【0063】また本発明によれば、文字領域は通常解像
度を重視した出力を行うことによって再現性を高めるこ
とが可能であるが、有彩文字領域においては必ずしも解
像度を高めることによって画質を高めることができない
場合が存在する。たとえば、画像出力装置の性能上、色
の再現性が十分に確保できない状況では、解像度を高め
る出力を行うことによって色が大きく変わってしまい逆
に違和感を生じる可能性がある。こういった場合、解像
度重視の出力を行うのではなく複数画素を組み合わせて
階調性を高めることによって色の再現性を高めることが
可能となる。
Further, according to the present invention, the reproducibility can be improved by performing the output in the character area with the emphasis on the normal resolution, but in the chromatic character area, the image quality is necessarily improved by increasing the resolution. There are cases where you cannot. For example, in a situation in which sufficient color reproducibility cannot be ensured due to the performance of the image output device, the output may be changed to a higher resolution, so that the color may change significantly, which may cause a sense of discomfort. In such a case, color reproducibility can be improved by combining a plurality of pixels to improve gradation, instead of outputting with emphasis on resolution.

【0064】また本発明によれば、高精度の出力結果を
作り、高品質の画像を高速で出力することができる。
Further, according to the present invention, it is possible to produce a highly accurate output result and output a high quality image at a high speed.

【0065】また本発明によれば、注目画素が文字領域
に属するのか否かが判定され、その判定結果に基づいて
文字領域に属すると判定された注目画素に対して、その
濃度値が注目画素近傍の濃度値よりも高い高濃度領域に
属するのか、濃度値が注目画素近傍の濃度値よりも低い
低濃度領域に属するのかが判定され、この判定結果に基
づいて、入力画像の画像処理内容を設定することができ
る。それ故、文字領域とその他の領域との間に生じるギ
ャップを極力抑制することができ、出力画質の向上を図
ることができる。
Further, according to the present invention, it is determined whether or not the pixel of interest belongs to the character region, and the density value of the pixel of interest determined to belong to the character region based on the result of the determination is the pixel of interest. It is determined whether it belongs to a high-density area that is higher than the density value in the vicinity or a low-density area where the density value is lower than the density value in the vicinity of the pixel of interest.Based on this determination result, the image processing content of the input image is determined. Can be set. Therefore, the gap between the character area and the other area can be suppressed as much as possible, and the output image quality can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態に係る画像形成装置の概略構成図で
ある。
FIG. 1 is a schematic configuration diagram of an image forming apparatus according to an exemplary embodiment.

【図2】領域分離処理部の構成図である。FIG. 2 is a configuration diagram of a region separation processing unit.

【図3】注目画素の周辺に7×7画素の局所マスクを形
成した場合の説明図である。
FIG. 3 is an explanatory diagram in the case where a local mask of 7 × 7 pixels is formed around a target pixel.

【図4】水平方向のエッジと垂直方向のエッジを検出す
る方法を説明する図である。
FIG. 4 is a diagram illustrating a method of detecting a horizontal edge and a vertical edge.

【図5】複数の文字検出用パターンの説明図である。FIG. 5 is an explanatory diagram of a plurality of character detection patterns.

【図6】パターンマッチングを行う際に7×7画素の局
所マスク内に3×3画素のサブマスクを形成した様子を
示す説明図である。
FIG. 6 is an explanatory diagram showing a state where a sub-mask of 3 × 3 pixels is formed in a local mask of 7 × 7 pixels when performing pattern matching.

【図7】ラプラシアンフィルタ係数を示す図である。FIG. 7 is a diagram showing Laplacian filter coefficients.

【図8】下色除去処理を施す際の説明図である。FIG. 8 is an explanatory diagram when performing undercolor removal processing.

【図9】文字領域判定処理のフローチャートである。FIG. 9 is a flowchart of a character area determination process.

【図10】黒生成量・UCR量の例を示す図表である。FIG. 10 is a chart showing an example of black generation amount / UCR amount.

【図11】文字領域判定部に色判定部を設けた図2相当
図である。
11 is a diagram corresponding to FIG. 2 in which a color determination unit is provided in the character area determination unit.

【図12】文字領域判定処理のフローチャートである。FIG. 12 is a flowchart of a character area determination process.

【図13】文字領域とその他の領域との境界付近部にお
けるギャップなどを示す図表である。
FIG. 13 is a chart showing a gap and the like in the vicinity of the boundary between a character area and another area.

【符号の説明】[Explanation of symbols]

1 画像形成装置2 画像処理装置8,8A 領域分離処理部10 黒生成下色除去部13 階調再現処理部14 文字領域判定部16 文字領域検出部17 濃度抽出部26 色判定部1 Image forming device2 Image processing device8.8A area separation processing unit10 Black generation undercolor removal unit13 gradation reproduction processing unit14 Character area determination unit16 Character area detector17 Concentration extractor26 color judgment section

─────────────────────────────────────────────────────フロントページの続き Fターム(参考) 5B057 AA11 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC03 CE11 DA08 DA17 DB02 DB06 DB09 DC16 DC22 DC36 5C077 LL02 MP06 MP08 PP02 PP27 PP28 PP32 PP33 PP45 PP55 PP68 PQ08 PQ12 PQ20 5L096 AA02 AA06 BA17 CA14 FA06 FA44 GA41 GA55  ─────────────────────────────────────────────────── ───Continued front page  F-term (reference) 5B057 AA11 BA02 CA01 CA08 CA12                      CA16 CB01 CB08 CB12 CB16                      CC03 CE11 DA08 DA17 DB02                      DB06 DB09 DC16 DC22 DC36                5C077 LL02 MP06 MP08 PP02 PP27                      PP28 PP32 PP33 PP45 PP55                      PP68 PQ08 PQ12 PQ20                5L096 AA02 AA06 BA17 CA14 FA06                      FA44 GA41 GA55

Claims (7)

Translated fromJapanese
【特許請求の範囲】[Claims]【請求項1】 入力画像を少なくとも所定の第1領域と
その他の第2領域に分離する領域分離手段であって、注
目画素が第1領域に属するか否かを判定する第1領域抽
出部と、第1領域抽出部の判定結果に基づいて第1領域
に属すると判定された注目画素に対して、その濃淡レベ
ルが注目画素近傍の濃淡レベルよりも高い高濃淡領域に
属するのか、濃淡レベルが注目画素近傍の濃淡レベルよ
りも低い低濃淡領域に属するのかを判定する濃淡領域抽
出部とを備える第1領域判定部を有する領域分離手段
と、入力画像に所定の処理を施す画像処理手段と、前記第1領域判定部の判定結果に基づいて、画像処理手
段の処理内容を設定する制御手段とを備えることを特徴
とする画像処理装置。
1. A first area extraction unit for separating an input image into at least a predetermined first area and another second area, the first area extraction unit determining whether or not a pixel of interest belongs to the first area. , The gray level of the target pixel determined to belong to the first region based on the determination result of the first region extraction unit is higher or lower than the gray level near the target pixel. A region separation unit having a first region determination unit that includes a gray region extraction unit that determines whether the pixel belongs to a low gray region that is lower than the gray level in the vicinity of the pixel of interest; an image processing unit that performs a predetermined process on the input image; An image processing apparatus comprising: a control unit that sets processing contents of the image processing unit based on a determination result of the first area determination unit.
【請求項2】 入力画像を文字領域を含む複数の領域に
分離する領域分離手段であって、注目画素が文字領域に
属するか否かを判定する文字領域抽出部と、文字領域抽
出部の判定結果に基づいて文字領域に属すると判定され
た注目画素に対して、その濃度値が注目画素近傍の濃度
値よりも高い高濃度領域に属するのか、濃度値が注目画
素近傍の濃度値よりも低い低濃度領域に属するのかを判
定する高濃度領域低濃度領域抽出部とを備える文字領域
判定部を有する領域分離手段と、入力画像に所定の処理
を施す画像処理手段と、前記文字領域判定部の判定結果に基づいて、画像処理手
段の処理内容を設定する制御手段とを備えることを特徴
とする画像処理装置。
2. An area separating means for separating an input image into a plurality of areas including a character area, the character area extracting section determining whether or not a pixel of interest belongs to the character area, and the determining by the character area extracting section. For the target pixel determined to belong to the character region based on the result, whether the density value is higher than the high density region near the target pixel, or the density value is lower than the darkness value near the target pixel. An area separating unit having a character area determining unit including a high density area / low density area extracting unit for determining whether the character area determining unit is included in the low density area, an image processing unit for performing a predetermined process on an input image, and the character area determining unit. An image processing apparatus comprising: a control unit that sets processing contents of the image processing unit based on a determination result.
【請求項3】 画像処理手段は、入力画像に対して中間
調処理を施す階調再現処理部を含み、制御手段は、文字領域判定部の判定結果に基づいて、文
字領域でかつ高濃度領域に属すると判定された注目画素
に対しては、前記階調再現処理部を制御して解像度を重
視した処理を施し、文字領域でかつ低濃度領域に属する
と判断された注目画素に対しては、前記階調再現処理部
を制御して階調性を重視した処理を施すように画像処理
手段を制御することを特徴とする請求項2に記載の画像
処理装置。
3. The image processing means includes a gradation reproduction processing section that performs halftone processing on the input image, and the control means is a character area and a high density area based on the determination result of the character area determination section. For the pixel of interest determined to belong to, the gradation reproduction processing unit is controlled to perform resolution-oriented processing, and for the pixel of interest determined to belong to the character region and the low density region, 3. The image processing apparatus according to claim 2, wherein the image processing means is controlled so as to control the gradation reproduction processing unit to perform processing with emphasis on gradation.
【請求項4】 画像処理手段は、入力画像に対して黒生
成下色除去処理を施す黒生成下色除去部を含み、制御手段は、文字領域判定部の判定結果に基づいて、文
字領域でかつ高濃度領域に属すると判定された注目画素
に対しては、前記黒生成下色除去部を制御して、低濃度
領域に属すると判定された注目画素よりも下色除去量を
高くするように画像処理手段を制御することを特徴とす
る請求項2または3に記載の画像処理装置。
4. The image processing means includes a black generation undercolor removal section that performs black generation undercolor removal processing on the input image, and the control means determines the character area based on the determination result of the character area determination section. For the pixel of interest determined to belong to the high density region, the black generation undercolor removal unit is controlled so that the amount of undercolor removal is higher than that of the pixel of interest determined to belong to the low density region. The image processing device according to claim 2 or 3, wherein the image processing means is controlled.
【請求項5】 文字領域判定部は、文字領域を有彩文字
領域と無彩文字領域とに分離する色判定部を備えている
ことを特徴とする請求項2に記載の画像処理装置。
5. The image processing apparatus according to claim 2, wherein the character area determination unit includes a color determination unit that separates the character area into a chromatic character area and an achromatic character area.
【請求項6】 請求項1〜5のいずれか1つに記載の画
像処理装置を備えることを特徴とする画像形成装置。
6. An image forming apparatus comprising the image processing apparatus according to claim 1. Description:
【請求項7】 入力画像を複数の領域に分離する領域分
離処理を行う画像処理方法において、領域分離処理は、入力画像が文字領域に属するか否かを
判定し、文字領域に属すると判定された注目画素に対し
ては、その濃度値が注目画素近傍の濃度値よりも高い高
濃度領域に属するのか、あるいは、濃度値が注目画素近
傍の濃度値よりも低い低濃度領域に属するのかを判定す
る処理を行い、この判定結果に基づいて、入力画像の画
像処理内容を設定することを特徴とする画像処理方法。
7. An image processing method for performing area separation processing for separating an input image into a plurality of areas, wherein the area separation processing determines whether or not the input image belongs to a character area, and determines that the input image belongs to the character area. For the target pixel, it is determined whether the density value belongs to a high density area higher than the density value near the target pixel or a low density area where the density value is lower than the density value near the target pixel. The image processing method, wherein the image processing content of the input image is set based on the determination result.
JP2002064468A2002-03-082002-03-08 Image processing method, image processing apparatus, and image forming apparatus having the samePendingJP2003264701A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2002064468AJP2003264701A (en)2002-03-082002-03-08 Image processing method, image processing apparatus, and image forming apparatus having the same

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2002064468AJP2003264701A (en)2002-03-082002-03-08 Image processing method, image processing apparatus, and image forming apparatus having the same

Publications (1)

Publication NumberPublication Date
JP2003264701Atrue JP2003264701A (en)2003-09-19

Family

ID=29197255

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2002064468APendingJP2003264701A (en)2002-03-082002-03-08 Image processing method, image processing apparatus, and image forming apparatus having the same

Country Status (1)

CountryLink
JP (1)JP2003264701A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US20070121136A1 (en)*2005-11-252007-05-31Sharp Kabushiki KaishaImage processing apparatus, image forming apparatus, image processing method, image processing program, and storage medium for the program
JP2007235583A (en)*2006-03-012007-09-13Ricoh Co Ltd Image processing apparatus, method, program, and recording medium
WO2008004710A1 (en)*2006-07-072008-01-10Canon Kabushiki KaishaImage processing device, image processing method, and image processing program
JP2008035511A (en)*2006-07-072008-02-14Canon Inc Image processing apparatus, image processing method, and image processing program
JP2008205967A (en)*2007-02-212008-09-04Kyocera Mita CorpImage processor
JP2010021668A (en)*2008-07-082010-01-28Sharp CorpImage processing method, image processing apparatus, image forming apparatus equipped with it, image processing program, and recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US20070121136A1 (en)*2005-11-252007-05-31Sharp Kabushiki KaishaImage processing apparatus, image forming apparatus, image processing method, image processing program, and storage medium for the program
US8305645B2 (en)*2005-11-252012-11-06Sharp Kabushiki KaishaImage processing and/or forming apparatus for performing black generation and under color removal processes on selected pixels, image processing and/or forming method for the same, and computer-readable storage medium for storing program for causing computer to function as image processing and/or forming apparatus for the same
JP2007235583A (en)*2006-03-012007-09-13Ricoh Co Ltd Image processing apparatus, method, program, and recording medium
WO2008004710A1 (en)*2006-07-072008-01-10Canon Kabushiki KaishaImage processing device, image processing method, and image processing program
JP2008035511A (en)*2006-07-072008-02-14Canon Inc Image processing apparatus, image processing method, and image processing program
US7699423B2 (en)2006-07-072010-04-20Canon Kabushiki KaishaImage processing apparatus, image processing method, and image processing program
CN101491075B (en)*2006-07-072013-01-30佳能株式会社 Image processing device and image processing method
JP2008205967A (en)*2007-02-212008-09-04Kyocera Mita CorpImage processor
JP2010021668A (en)*2008-07-082010-01-28Sharp CorpImage processing method, image processing apparatus, image forming apparatus equipped with it, image processing program, and recording medium

Similar Documents

PublicationPublication DateTitle
CN100568911C (en) Image processing device, method, and program, image forming device, and recording medium
CN1972367A (en)Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JPH0736609B2 (en) Under color removal method of color image forming apparatus
JP4139834B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and computer-readable recording medium recording image processing program
JP3469299B2 (en) Image processing device
JP2003264701A (en) Image processing method, image processing apparatus, and image forming apparatus having the same
JP2005286571A (en) Image processing apparatus, image forming apparatus provided with image processing apparatus, image processing method, image processing program, and recording medium recording image processing program
JP3734703B2 (en) Image processing method, image processing apparatus, and image forming apparatus
JP2002325182A (en) Image processing method, image processing apparatus, and image forming apparatus having the same
JP2002218271A (en) Image processing apparatus, image forming apparatus, and image processing method
JP7123752B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP3927426B2 (en) Image processing method, image processing apparatus, and image forming apparatus including the same
JP2003230006A (en) Image processing method, image processing apparatus, and image forming apparatus
JP4149368B2 (en) Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium
JP2011015172A (en)Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image
JP2004248103A (en) Image processing apparatus, image reading apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium storing the same
JP4176053B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program
JP2003224718A (en) Image processing method and image processing apparatus
JPH06152945A (en)Image processor
JP3587740B2 (en) Image processing device
JP4176656B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium recording the program
JP4086537B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2003219178A (en) Image processing method, image processing apparatus, and image forming apparatus
JP2008271131A (en) Image processing method, image processing apparatus, and image forming apparatus
JP2000357237A (en) IMAGE PROCESSING APPARATUS, IMAGE READING APPARATUS AND IMAGE FORMING APPARATUS EQUIPPED WITH THE SAME, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE STORAGE MEDIUM CONTAINING IMAGE PROCESSING PROCEDURE

[8]ページ先頭

©2009-2025 Movatter.jp