Movatterモバイル変換


[0]ホーム

URL:


JP2006270148A - Image processing method, image processor and image forming apparatus - Google Patents

Image processing method, image processor and image forming apparatus
Download PDF

Info

Publication number
JP2006270148A
JP2006270148AJP2005081038AJP2005081038AJP2006270148AJP 2006270148 AJP2006270148 AJP 2006270148AJP 2005081038 AJP2005081038 AJP 2005081038AJP 2005081038 AJP2005081038 AJP 2005081038AJP 2006270148 AJP2006270148 AJP 2006270148A
Authority
JP
Japan
Prior art keywords
image
processing
unit
type
separation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005081038A
Other languages
Japanese (ja)
Inventor
Kenji Furuyama
健司 古山
Kimikatsu Kanda
公克 神田
Tsutomu Kimura
努 木村
Kenji Ueda
健次 上田
Shinji Hanaoka
新治 花岡
Hiroshi Niina
博 新名
Hidemi Kaneko
秀美 金子
Kenji Yamada
健二 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co LtdfiledCriticalFuji Xerox Co Ltd
Priority to JP2005081038ApriorityCriticalpatent/JP2006270148A/en
Publication of JP2006270148ApublicationCriticalpatent/JP2006270148A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an image forming apparatus performing optimal processing depending on a type of a document in which image separation processing can be adapted to the type of the document. <P>SOLUTION: A document type detecting section 140 specifies a type of a document by evaluating a processing object image from various viewpoints, e. g. binarization results, contraction/expansion, density, a black color (color), a segment, an edge, a screen pattern such as dot/error diffusion/dither. An image separating section 240 performs image zone separation by employing optimal separation parameters depending on a specified type of the document while using an optimal one of image separating sections 241-243 depending on the specified type of the document. An image zone adaptive signal processing section such as a prestage image correcting section 300 performs image processing adaptive to the image zone with reference to results of image zone separation adaptive to the type of the document obtained by the image separating section 240. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

Translated fromJapanese

本発明は、画像処理方法および画像処理装置並びに画像形成装置に関する。より詳細には、たとえば複写装置、プリンタ装置、ファクシミリ装置、あるいはそれら複数の機能を有する複合機など、所定の記録媒体に画像を形成する画像形成装置に用いて好適な、処理対象画像の種類に適応した画像処理を行なう技術に関する。たとえば、複写すべき原稿の種類に応じて最適な画像処理を施すようにする仕組みに関する。  The present invention relates to an image processing method, an image processing apparatus, and an image forming apparatus. More specifically, the type of image to be processed is suitable for use in an image forming apparatus that forms an image on a predetermined recording medium, such as a copying apparatus, a printer apparatus, a facsimile apparatus, or a multifunction machine having a plurality of functions. The present invention relates to a technique for performing adaptive image processing. For example, the present invention relates to a mechanism for performing optimum image processing according to the type of document to be copied.

所定の記録媒体に画像を形成する画像形成装置においては、処理対象画像の種別(たとえば原稿種や画像オブジェクト)に応じて画像処理の内容を切り替える仕組みを持つものが提案されている(たとえば特許文献1,2を参照)。  An image forming apparatus that forms an image on a predetermined recording medium has been proposed that has a mechanism for switching the contents of image processing in accordance with the type of image to be processed (for example, a document type or an image object) (for example, Patent Documents). 1 and 2).

特開平09−65143号公報JP 09-65143 A特開平11−146220号公報Japanese Patent Laid-Open No. 11-146220

たとえば従来のカラー複写機として、原稿種に応じて画像処理内容を切り替えることができるようにしたものがあり、この種のカラー複写機では、原稿タイプを4つ(文字/写真の混在、文字、写真、地図)のモードに分類し、ユーザがキー操作により、指定するモードに従って、空間フィルタの強さ、スクリーン線数、ディザあるいは色補正係数を切り替えるようにしている。  For example, as a conventional color copying machine, there is one in which the image processing contents can be switched according to the type of document. In this type of color copying machine, there are four document types (mixed text / photo, text, (Photo, Map) mode, and the user switches the strength of the spatial filter, the number of screen lines, dither or color correction coefficient according to the mode specified by the key operation.

しかし、このような処理の切替方式では、ユーザがその都度モード設定操作を行なわなければならず、しかも、複写しようとしている“絵”が銀塩写真であるのか網点写真であるのかを、操作の度にユーザが判断しなければならないことから、ユーザの負担が大きいといった問題がある。また、ユーザ自身が複写すべき原稿の種類と複写機で選択すべきモードとを正確に判定できない場合がある。  However, in such a process switching method, the user must perform a mode setting operation each time, and whether or not the “picture” to be copied is a silver halide photograph or a halftone photograph. Since the user has to make a judgment each time, there is a problem that the burden on the user is heavy. In some cases, the user cannot accurately determine the type of document to be copied and the mode to be selected by the copying machine.

これに対して、たとえば特許文献1には、読み取った原稿が地図であるか否かを判定し、その判定結果に基づいて画像処理内容を切り替える仕組みが提案されている。たとえば、原稿判定結果に応じて空間フィルタによるエッジ強度の度合いを制御したり、原稿が地図であると判定した場合にはディザ処理のディザサイズを小さくしたり誤差拡散法により処理したりするなどして、画像処理内容を切り替えている。  On the other hand, for example,Patent Document 1 proposes a mechanism for determining whether or not a read original is a map and switching image processing contents based on the determination result. For example, the degree of edge strength by the spatial filter is controlled according to the document determination result, or when the document is determined to be a map, the dither size of the dither process is reduced or the error diffusion method is used. The image processing contents are switched.

しかしながら、プロセスインクと網点によって形成された多色刷りの地図や特色(プロセスインク以外の色)によって網点を使用せずに形成された地図、あるいは印刷所や地域によって特色の濃度を変更した地図など、地図原稿には様々な種類が存在するので、一律な判定では、前記のような様々な地図原稿の種別を判定できない場合がある。また、同様に、判定した原稿種に対応した一律な画像処理では使用者の好みに応じた出力を得られない可能性がある。  However, a multicolored map formed by process ink and halftone dots, a map formed without using halftone dots by spot colors (colors other than process ink), or a map in which the density of the spot colors is changed depending on the printing shop or area Since there are various types of map manuscripts, there are cases where the above-mentioned various types of map manuscripts cannot be determined by uniform determination. Similarly, uniform image processing corresponding to the determined document type may fail to obtain an output according to the user's preference.

一方、特許文献2には、たとえば読み取った原稿の色情報を予め分割された色空間ごとに分類して画像の特徴量を抽出し、抽出した特徴量と予め記憶されている特徴量とを比較することにより読み取った原稿の種類を判定し、その判定結果に基づいて画像処理内容を切り替える仕組みが提案されている。要するに、原稿種をプレスキャンまたはファーストスキャンしたときに、色情報を元に画像処理内容を切替える技術である。これによれば、使用者が画質モードを選択する手間を省き、読み取った原稿の色情報を元に、原稿の種類を正確に判定することができる。  On the other hand, inPatent Document 2, for example, color information of a read original is classified into color spaces divided in advance to extract image feature amounts, and the extracted feature amounts are compared with prestored feature amounts. Thus, a mechanism has been proposed in which the type of document read is determined, and the image processing content is switched based on the determination result. In short, this is a technique for switching image processing contents based on color information when a document type is pre-scanned or first scanned. According to this, it is possible to accurately determine the type of the document based on the color information of the read document without the user's trouble of selecting the image quality mode.

また、原稿の特徴量として、読み取った原稿の画像データの濃度および色相のヒストグラムを評価観点とすることにより、蛍光ペンによって書き込まれた原稿や地図原稿などを的確に判定できるようにした仕組みも提案されている。  Also proposed is a mechanism that makes it possible to accurately determine a document or map document written with a highlighter by using the density and hue histogram of the image data of the scanned document as the document feature value. Has been.

たとえば、画像分離回路でヒストグラム、周波数領域におけるエッジ度、網点領域の割合などの特徴量を基に文字部と写真部の判定、および有彩色・無彩色の判定を行ない、判定結果に応じて最適な画像処理を行なうようにしている。  For example, the image separation circuit performs character / photo determination and chromatic / achromatic determination based on features such as histogram, edge degree in frequency domain, halftone dot ratio, etc. Optimal image processing is performed.

しかしながら、特許文献2に記載の仕組みでは、原稿の種類を検知した結果に応じて最適な画像処理を行なうとはいうものの、検知した原稿種と画像分離(像域分離とも言われる)との関わりについては記載がない。このため、特許文献2の記載内容に基づいただけでは、検知した原稿種に応じた最適な画像分離と、この画像分離結果を反映した最適な画像処理を行なうことはできない。  However, in the mechanism described inPatent Document 2, although optimum image processing is performed according to the result of detecting the type of document, the relationship between the detected document type and image separation (also referred to as image area separation). Is not described. For this reason, only based on the content described inPatent Document 2, it is not possible to perform optimum image separation according to the detected document type and optimum image processing reflecting the image separation result.

本発明は、上記事情に鑑みてなされたものであり、原稿種に応じた適切な画像分離と、この画像分離結果を反映した適切な画像処理を行なうことができる仕組みを提供することを目的とする。  The present invention has been made in view of the above circumstances, and an object thereof is to provide a mechanism capable of performing appropriate image separation according to a document type and appropriate image processing that reflects the image separation result. To do.

本発明に係る画像処理方法は、処理対象画像の種類に適応した画像処理を行なう画像処理方法であって、処理対象画像の種類に適応した像域分離処理を行ない、処理対象画像の種類に適応した像域分離処理の結果を参照して像域に適応した画像処理を行なうこととした。  An image processing method according to the present invention is an image processing method for performing image processing that is adapted to the type of processing target image, performs image region separation processing that is adapted to the type of processing target image, and is adapted to the type of processing target image. The image processing adapted to the image area is performed with reference to the result of the image area separation processing.

ここで、処理対象画像の種類に適応した像域分離処理を行なうとは、処理対象画像の種類に応じた適切な画像分離手法を採用するか、あるいは処理対象画像の種類に応じた適切な画像分離パラメータを使用することを意味する。  Here, the image area separation process adapted to the type of the processing target image means that an appropriate image separation method according to the type of the processing target image is adopted, or an appropriate image according to the type of the processing target image This means using separation parameters.

すなわち、画像分離手法と画像分離パラメータの内の少なくとも一方について、処理対象画像の種類に適応させると言うことである。処理対象画像の種類に応じた適切な画像分離手法を採用するとともに、処理対象画像の種類に応じた適切な画像分離パラメータを使用すると一層好ましいものとなる。  That is, at least one of the image separation method and the image separation parameter is adapted to the type of the processing target image. It is more preferable to employ an appropriate image separation method according to the type of the processing target image and to use an appropriate image separation parameter according to the type of the processing target image.

本発明に係る画像処理装置は、前記本発明に係る画像処理方法を実施するのに好適な画像処理装置であって、処理対象画像の種類を特定する原稿種分類処理部と、原稿種分類処理部が特定した処理対象画像の種類に適応した像域分離処理を行なう像域分離処理部と、像域分離処理部により得られる処理対象画像の種類に適応した像域分離処理の結果を参照して像域に適応した画像処理を行なう像域適応信号処理部とを備えるものとした。  An image processing apparatus according to the present invention is an image processing apparatus suitable for carrying out the image processing method according to the present invention, and includes an original type classification processing unit that specifies the type of an image to be processed, and an original type classification process Refer to the results of the image area separation processing unit that performs image area separation processing adapted to the type of processing target image specified by the image processing unit and the image area separation processing adapted to the type of image to be processed obtained by the image area separation processing unit. And an image area adaptive signal processing unit for performing image processing adapted to the image area.

本発明に係る画像形成装置は、前記本発明に係る画像処理方法を実施するのに好適な画像形成装置であって、前記本発明に係る画像処理装置が備える機能部に加えて、像域適応信号処理部による処理結果に基づいて所定の記録媒体に画像を形成する画像出力部を備えるものとした。なお、原稿画像を光学的に走査して読み取ることで処理対象画像を取得する画像読取部をさらに備えた画像形成装置にするとよい。  An image forming apparatus according to the present invention is an image forming apparatus suitable for implementing the image processing method according to the present invention, and includes image area adaptation in addition to the functional units included in the image processing apparatus according to the present invention. An image output unit for forming an image on a predetermined recording medium based on the processing result of the signal processing unit is provided. The image forming apparatus may further include an image reading unit that acquires a processing target image by optically scanning and reading a document image.

また従属項に記載された発明は、本発明に係る画像処理装置や画像形成装置のさらなる有利な具体例を規定する。  The inventions described in the dependent claims define further advantageous specific examples of the image processing apparatus and the image forming apparatus according to the present invention.

本発明によれば、処理対象画像の種類に適応した像域分離処理を行ない、さらに、処理対象画像の種類に適応した像域分離処理の結果を参照して、像域に適応した画像処理を行なうようにした。これにより、処理対象画像に対して適切な画像分離手法や画像分離パラメータを選択して処理対象画像に適応した画像分離処理ができるようになる。また、その像域分離結果を受けて、像域に適応した画像処理を行なうので、画像種と像域の双方について適切な画像処理ができるようになる。  According to the present invention, image region separation processing adapted to the type of the processing target image is performed, and further, image processing adapted to the image region is performed with reference to the result of the image region separation processing adapted to the type of processing target image. I tried to do it. As a result, it is possible to select an appropriate image separation method or image separation parameter for the processing target image and perform image separation processing adapted to the processing target image. Further, since image processing adapted to the image area is performed in response to the image area separation result, appropriate image processing can be performed for both the image type and the image area.

以下、図面を参照して本発明の実施形態について詳細に説明する。  Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<画像形成装置の全体構成>
図1は、本発明に係る画像形成装置の一実施形態であるカラー複写装置を示す概略図である。このカラー複写装置1は、たとえば複写機能、ページプリンタ機能、およびファクシミリ送受信機能を備えたいわゆる複合機(マルチファンクション機)で、デジタルプリント装置として構成されている。
<Overall configuration of image forming apparatus>
FIG. 1 is a schematic view showing a color copying apparatus which is an embodiment of an image forming apparatus according to the present invention. The color copyingapparatus 1 is a so-called multi-function machine (multifunction machine) having a copying function, a page printer function, and a facsimile transmission / reception function, and is configured as a digital printing apparatus.

カラー複写装置1は、大まかに、原稿を読み取る画像読取部10、所定の画像処理を行なう画像処理部20、画像処理部20による処理済の画像データに基づいて可視画像を所定の記録媒体に形成して出力する画像出力部30、および給紙トレイ82から記録媒体としての印刷用紙を画像出力部30に搬送する給紙部80を備えている。画像処理部20は、画像読取部10と画像出力部30との境界部分に配された処理基板38上に設けられている。  The color copyingapparatus 1 roughly forms a visible image on a predetermined recording medium based on animage reading unit 10 that reads a document, an image processing unit 20 that performs predetermined image processing, and image data that has been processed by the image processing unit 20. And an image output unit 30 that outputs the image data, and a paper feed unit 80 that conveys printing paper as a recording medium from thepaper feed tray 82 to the image output unit 30. The image processing unit 20 is provided on a processing substrate 38 disposed at a boundary portion between theimage reading unit 10 and the image output unit 30.

またカラー複写装置1は、接続ケーブル90を介してネットワークに接続可能になっている。たとえば、図示しない画像入力端末から、接続ケーブル90を介して、ページ記述言語(PDL:Page Description Language )で記載された印刷データを受け取る。あるいは一般加入電話網(PSTN:Public Switched Telephone Network )を介してFAX装置などの画像入力端末に接続される。なお、一般加入電話網PSTNに代えて、ISDN(Integrated Switched Digital Network )またはインターネットを含む他の通信媒体を利用してファクシミリをやり取りするようにしてもよい。画像読取部10と画像出力部30と図示しない通信処理部とでファックス送受信手段が構成される。  The color copyingapparatus 1 can be connected to a network via a connection cable 90. For example, print data described in a page description language (PDL) is received from an image input terminal (not shown) via the connection cable 90. Alternatively, it is connected to an image input terminal such as a FAX apparatus via a public switched telephone network (PSTN). Instead of the general subscriber telephone network PSTN, facsimile may be exchanged using ISDN (Integrated Switched Digital Network) or other communication media including the Internet. Theimage reading unit 10, the image output unit 30, and a communication processing unit (not shown) constitute a fax transmission / reception means.

このような構成により、カラー複写装置1は、前述のように、画像読取部10にて読み取った画像の印刷機能すなわち複写機能に限らず、接続ケーブル90を介してパソコンなどの画像入力端末から取得した文書データや画像ファイルなどに基づいて画像を印刷するいわゆるプリント機能や、電話回線および接続ケーブル90を介して受信したFAXデータに基づいて印刷出力するFAX機能も備えるようになる。  With such a configuration, as described above, the color copyingapparatus 1 is not limited to the printing function of the image read by theimage reading unit 10, that is, the copying function, and is acquired from an image input terminal such as a personal computer via the connection cable 90. In addition, a so-called print function for printing an image based on the document data or image file, and a FAX function for printing out based on the FAX data received via the telephone line and the connection cable 90 are provided.

画像読取装置10は、プラテンカバーの機能も備え、原稿を図示しない読取台(プラテンガラス)上の読取位置まで搬送し排紙する循環機能のないドキュメントフィーダ(ADF(自動原稿搬送)装置)12と、装置使用のためのガイダンス情報や所定の情報処理結果や管理情報などを表示する操作パネル部15aやオペレータからの装置に対する種々の指示入力を受け付けるための操作キー部15bを有するユーザインタフェース部15とを有している。なお、操作パネル部15aや操作キー部15bに代えて、あるいはこれらとともに使用される大型ユーザインタフェースあるいはメンテナンス画面を備えたユーザインタフェース装置16を設けてもよい。  Theimage reading apparatus 10 also has a platen cover function, and has a document feeder (ADF (automatic document conveying) apparatus) 12 having no circulation function for conveying and discharging a document to a reading position on a reading table (platen glass) (not shown). A user interface unit 15 having anoperation panel unit 15a for displaying guidance information for using the device, predetermined information processing results, management information, and the like, and anoperation key unit 15b for receiving various instruction inputs from the operator to the device; have. It should be noted that a user interface device 16 having a large user interface or a maintenance screen used in place of or together with theoperation panel unit 15a and theoperation key unit 15b may be provided.

画像読取部10は、画像入力端末の機能を備えており、たとえばCCD固体撮像素子の全幅アレイを使用して、読取位置へ送られた原稿に光を照射することで、原稿上の画像を読み取り、この読み取った画像を表す赤、緑、青のアナログビデオ信号をデジタル信号へ変換し、画像処理部20へ送る。  Theimage reading unit 10 has a function of an image input terminal. For example, an image on a document is read by irradiating light to the document sent to the reading position by using a full width array of CCD solid-state imaging devices. The red, green and blue analog video signals representing the read image are converted into digital signals and sent to the image processing unit 20.

このようにして、読取りが完了すると、画像処理部20は、画像読取部10からの赤、緑、青の画像データR,G,Bに基づいて、ブラック(K)、イエロー(Y)、マゼンタ(M)、シアン(C)のオンオフ2値化トナー信号を得、各トナー信号を画像出力部30に出力する。  When the reading is completed in this way, the image processing unit 20 performs black (K), yellow (Y), magenta based on the red, green, and blue image data R, G, and B from theimage reading unit 10. (M) and cyan (C) on / off binarized toner signals are obtained, and the respective toner signals are output to the image output unit 30.

画像出力部30は、画像形成ユニット32と、両面複写ユニット34と、排紙ユニット36と、1枚もしくは複数枚(図は複数枚で例示)の処理基板38とを含む。画像形成ユニット32は、画像読取装置10にて得られた画像信号により表される画像を、電子写真式、感熱式、熱転写式、インクジェット式、あるいは同様な従来の画像形成処理を利用して、普通紙や感熱紙上に可視画像を形成する(印刷する)すなわち複写する。  The image output unit 30 includes an image forming unit 32, a duplex copying unit 34, a paper discharge unit 36, and one or a plurality of processing substrates 38 (illustrated by a plurality of sheets in the figure). The image forming unit 32 converts the image represented by the image signal obtained by theimage reading apparatus 10 into an electrophotographic type, a thermal type, a thermal transfer type, an ink jet type, or a similar conventional image forming process, A visible image is formed (printed), that is, copied on plain paper or thermal paper.

このため、画像形成ユニット32は、たとえばカラー複写装置1をデジタル印刷システムとして稼働させるためのラスタ出力スキャン(ROS)ベースのプリントエンジンを備える。たとえば、画像形成ユニット32は画像処理部20で生成される2値化記録信号を用いて画像記録処理を行なうマーキングエンジンを有している。マーキングエンジン部は、たとえばトナーを色材に使用し、露光による静電潜像形成とその後の現像、転写、定着を行なう電子写真方式を利用したものであってもよいし、インクを色材に使用するインクジェット方式を利用したものであってもよいし、あるいは刷版製作を行ない、その版を用いてインクを記録紙に転写する製版印刷方式(たとえばリソグラフィ方式)のもの、など様々なものが使用できる。  Therefore, the image forming unit 32 includes a raster output scan (ROS) -based print engine for operating thecolor copying apparatus 1 as a digital printing system, for example. For example, the image forming unit 32 has a marking engine that performs an image recording process using a binarized recording signal generated by the image processing unit 20. The marking engine unit may use, for example, an electrophotographic method in which toner is used as a color material and electrostatic latent image formation by exposure and subsequent development, transfer, and fixing are performed, or ink is used as a color material. Various types such as those using the ink jet method to be used, or making a printing plate and transferring the ink to the recording paper using the plate (for example, a lithography method) are available. Can be used.

処理基板38には、画像出力部30用の処理部(特に画像処理部)だけでなく、画像処理部20やカラー複写装置1全体の種々の処理をするための回路が搭載される。たとえば、カラー複写装置1内に構築された資源であるドキュメントフィーダ12、操作パネル部15a、画像読取部10の図示しない画像読取ユニット(スキャナ部)、画像形成ユニット32、両面複写ユニット34、排紙ユニット36、あるいは給紙トレイ82など制御する回路が搭載される。この処理基板38には、半導体製の記憶媒体が搭載され、たとえば、複写アプリケーション、プリンタアプリケーション、ファクシミリ(FAX)アプリケーション、あるいは他のアプリケーション用の処理プログラムが格納される。  On the processing substrate 38, not only a processing unit for the image output unit 30 (particularly an image processing unit) but also a circuit for performing various processes of the image processing unit 20 and the entirecolor copying apparatus 1 are mounted. For example, thedocument feeder 12, which is a resource constructed in thecolor copying apparatus 1, theoperation panel unit 15a, an image reading unit (scanner unit) (not shown) of theimage reading unit 10, an image forming unit 32, a duplex copying unit 34, paper discharge A circuit for controlling the unit 36 or thepaper feed tray 82 is mounted. The processing board 38 is mounted with a semiconductor storage medium, and stores, for example, a processing program for a copying application, a printer application, a facsimile (FAX) application, or another application.

たとえば、画像読取装置10は、画像入力端末の機能を備えており、たとえばCCD固体撮像素子の全幅アレイを使用して、読取位置へ送られた原稿に光を照射することで、原稿上の画像を読み取り、この読み取った画像を表すアナログビデオ信号をデジタル信号へ変換し、画像処理部20へ送る。この画像読取装置10の読み取りに同期して、用紙が複数(A4,B4,A3)の給紙トレイ82の内の何れかから画像出力部30へ給紙されると、画像出力部30の画像形成ユニット32は、その用紙の一方の面に、画像処理部20から送られたK,Y,M,Cのトナー信号に基づいて可視画像を形成する。  For example, theimage reading apparatus 10 has a function of an image input terminal. For example, by using a full-width array of a CCD solid-state imaging device and irradiating light on a document sent to a reading position, an image on the document is obtained. The analog video signal representing the read image is converted into a digital signal and sent to the image processing unit 20. In synchronization with the reading of theimage reading apparatus 10, when a sheet is fed from any one of a plurality of (A 4,B 4, A 3)sheet feeding trays 82 to the image output unit 30, the image of the image output unit 30 is displayed. The forming unit 32 forms a visible image on one side of the paper based on the K, Y, M, and C toner signals sent from the image processing unit 20.

両面複写ユニット34は、一方の面に画像が形成された用紙を裏返し、再び画像形成ユニット32にその用紙を給紙する。これにより、画像読取装置10が読み取った画像が用紙の他方の面に形成され、両面複写が完了される。画像形成ユニット32から排出される用紙あるいは両面複写済み用紙は、排紙ユニット36により、ページ順に連続的に、あるいは1ページごとにソートされる。  The duplex copying unit 34 turns over the sheet on which the image is formed on one side, and feeds the sheet to the image forming unit 32 again. As a result, an image read by theimage reading device 10 is formed on the other side of the sheet, and double-sided copying is completed. Paper discharged from the image forming unit 32 or double-sided copied paper is sorted by the paper discharge unit 36 continuously in page order or page by page.

<画像処理部の機能ブロック図>
図2は、上記構成のカラー複写装置1における画像処理部20、特に像域分離に関わる部分に着目した機能ブロック図である。
<Functional block diagram of image processing unit>
FIG. 2 is a functional block diagram focusing on the image processing unit 20 in thecolor copying apparatus 1 having the above-described configuration, particularly on the part related to image area separation.

図示するように、カラー複写装置1は、画像読取部10、画像処理部20、および画像出力部30の他に、ハードディスク装置や光ディスク装置などでなる画像記憶部900を備えている。  As illustrated, thecolor copying apparatus 1 includes animage storage unit 900 including a hard disk device, an optical disk device, and the like in addition to theimage reading unit 10, the image processing unit 20, and the image output unit 30.

画像読取部10で読み取られた原稿画像を表わす画像データや、接続ケーブル90を介してパソコンなどの画像入力端末から取得した文書データや画像ファイルなどを表わす画像データは、一旦画像記憶部900に格納され、所定のタイミングで読み出されてから画像出力部30における出力処理(画像形成処理)に供される。もちろん、その前に、画像処理部20において所定の画像処理が加えられる。  Image data representing an original image read by theimage reading unit 10 and image data representing document data or an image file acquired from an image input terminal such as a personal computer via the connection cable 90 are temporarily stored in theimage storage unit 900. Then, after being read out at a predetermined timing, it is used for output processing (image forming processing) in the image output unit 30. Of course, predetermined image processing is added in the image processing unit 20 before that.

画像処理部20は、処理対象画像の種類に適応した画像処理を行なうように構成されており、原稿種分類処理部100と、像域分離処理部200と、前段画像補正処理部300と、色空間変換部400と、後段画像補正処理部500と、出力データ処理部600とを備えている。  The image processing unit 20 is configured to perform image processing adapted to the type of image to be processed, and includes a document typeclassification processing unit 100, an image areaseparation processing unit 200, a pre-stage imagecorrection processing unit 300, and a color. Aspace conversion unit 400, a subsequent imagecorrection processing unit 500, and an outputdata processing unit 600 are provided.

原稿種分類処理部100は、処理対処画像に対する分割指示を受け付ける領域指定部120と、原稿種を検知する原稿種類検知部140と、原稿種類検知部140の検知結果を保持する検知画像記憶部160とを有している。  The document typeclassification processing unit 100 includes anarea designating unit 120 that receives an instruction to divide a processed image, a document type detection unit 140 that detects a document type, and a detectedimage storage unit 160 that holds a detection result of the document type detection unit 140. And have.

原稿種類検知部140は、処理対象画像について、プレスキャン方式もしくはプレスキャンレス方式(リアルタイム方式ともいわれる)により原稿の種類を検知し、その検知結果(検知情報を含む画像)を、検知画像記憶部160に格納する。  The document type detection unit 140 detects the type of document with respect to the processing target image by a pre-scan method or a pre-scanless method (also referred to as a real-time method), and a detection result (an image including detection information) is detected as a detected image storage unit. 160 is stored.

また、詳細は後述するが、原稿種類検知部140は、たとえば、色空間ごとにヒストグラムを作成して原稿の色数や色の蛍光を抽出する、原稿を周波数変換し、文字や写真などのエッジ情報に基づいて画像データを分類する、あるいは特開平7−298074号公報に記載されているように、原稿の網点・文字・写真の各割合の特徴量を抽出するなどの方法を用いて種々の観点から(これらの何れか1つの方法を使用してもよい)処理対象画像を評価し、この評価結果を示す各観点の評価値に基づいて、原稿種を検知(特定)する。  Although details will be described later, for example, the document type detection unit 140 creates a histogram for each color space and extracts the number of colors of the document and the fluorescence of the color. Various methods are used by classifying image data on the basis of information, or by extracting feature values of respective proportions of halftone dots, characters, and photographs of a document as described in Japanese Patent Laid-Open No. 7-298074. From this viewpoint (any one of these methods may be used), the image to be processed is evaluated, and the document type is detected (specified) based on the evaluation value of each viewpoint indicating the evaluation result.

ここで、プレスキャン方式とは、通常の画像形成動作(本読み;本スキャン)に先立って原稿の画像(被形成画像)を読み取る(プリスキャンする)ことにより処理対象原稿の画像濃度を測定し、この測定結果に基づいて原稿の種類を特定するものである(たとえば特開平4−037258号公報を参照)。  Here, the pre-scan method measures the image density of the document to be processed by reading (pre-scanning) the image (formation image) of the document prior to the normal image forming operation (main reading; main scanning). Based on the measurement result, the type of document is specified (see, for example, Japanese Patent Laid-Open No. 4-037258).

たとえば、原稿をプレスキャンして、このプレスキャン時に原稿全面における濃度ヒストグラムを作成し、このヒストグラムに基づいて原稿の地肌濃度を判別することで、文字原稿、写真原稿、あるいは文字と写真が混在した混在原稿の何れであるかを特定する。換言すれば、プレスキャン方式は、面処理方法ともいうことができ、対象範囲面をスキャンして、ヒストグラムを用いて2次元データ量を検知することで原稿種を特定する。  For example, when a document is pre-scanned, a density histogram is created on the entire surface of the document at the time of the pre-scan, and the background density of the document is determined based on the histogram, so that a text document, a photo document, or a mixture of text and photos is mixed. Specify which of the mixed originals. In other words, the pre-scan method can also be referred to as a surface processing method, and scans a target range surface and detects a two-dimensional data amount using a histogram to specify a document type.

一方、プレスキャンレス方式とは、プレスキャンなしに原稿の画像(被形成画像)を読み取ることにより処理対象原稿の画像濃度を測定し、この測定結果に基づいて原稿の種類を特定するものである。  On the other hand, the pre-scanless method measures the image density of a document to be processed by reading an image (formation image) of the document without pre-scanning, and specifies the type of document based on the measurement result. .

プレスキャン方式では、通常の画像形成動作に入る前にスキャン動作を行なうことから、原稿を少なくとも2度読み込まなければならず、出力指令を発してから(たとえばスタートボタンを押してから)1枚目の出力物(たとえばコピー)が排出されるまでの処理時間FCOT(First Copy Out Time )が増加し、生産性が低下する。  In the pre-scan method, since the scanning operation is performed before entering the normal image forming operation, the document must be read at least twice, and after the output command is issued (for example, after the start button is pressed), the first sheet The processing time FCOT (First Copy Out Time) until the output product (for example, copy) is discharged increases, and the productivity decreases.

プレスキャンレス方式は、この処理時間の増加対策として提案された検知速度を優先するもので、種々の方式が提案されている(たとえば、特開平7−13399号公報、特開平8−65530号公報、特開2000−261676号公報、特開平7−322069号公報などを参照)。これら文献に記載の手法では、プレスキャンなしで、ラインごとの地肌濃度(下地量)を検出し、この検出結果に応じて、リアルタイムに(ライン単位で)階調補正を行なっていく、つまり原稿種に応じた階調補正処理を行なう仕組みが提案されている。  The pre-scanless system gives priority to the detection speed proposed as a countermeasure for increasing the processing time, and various systems have been proposed (for example, Japanese Patent Laid-Open Nos. 7-13399 and 8-65530). JP, 2000-261676, A, JP 7-322069, etc.). In the methods described in these documents, the background density (background amount) for each line is detected without pre-scanning, and tone correction is performed in real time (in units of lines) according to the detection result. A mechanism for performing gradation correction processing according to seeds has been proposed.

ただし、リアルタイム方式では、実際には、地肌濃度を信頼度よく検出することが難しく、たとえばグラデーション画像など、原稿の内容によっては、ラインごとに下地検知量が変動し、原稿種の特定精度が低下する可能性がある。よって、この検知結果に基づいて濃度調整処理や下地除去処理を行なうと、処理途中で不要に濃度レベルが変動したり下地除去レベルが変動したりして、出力画像の品質が劣化するという問題が生じ得る。  However, with the real-time method, it is actually difficult to reliably detect the background density. Depending on the content of the original, such as a gradation image, the background detection amount varies from line to line, and the accuracy of specifying the original type decreases. there's a possibility that. Therefore, if density adjustment processing or background removal processing is performed based on this detection result, the density level may change unnecessarily during processing, or the background removal level may fluctuate, resulting in degradation of the output image quality. Can occur.

この問題を避けるには、たとえば、原稿先端側だけで下地検知を行ない、原稿先端側で取得した下地検知量に基づいて特定される原稿種に応じて、以降の(原稿中央部の)濃度調整や下地除去を行なう手法を採ってもよい。  In order to avoid this problem, for example, the background detection is performed only at the front end side of the document, and the subsequent density adjustment (at the center of the document) is performed according to the document type specified based on the background detection amount acquired at the front end side of the document. Alternatively, a method of removing the groundwork may be employed.

あるいは、領域指定部120による領域分割指示に基づいて、画像を複数のブロックに分割し、この複数のブロックごとに原稿濃度を検知することで、領域ごとに原稿種を特定してもよい(たとえば特開平7−322069号公報を参照)。  Alternatively, the document type may be specified for each region by dividing the image into a plurality of blocks based on the region division instruction by theregion designating unit 120 and detecting the document density for each of the plurality of blocks (for example, (See JP-A-7-322069).

なお、原稿種類検知部140は、領域指定部120によって、予め処理対象画像に関して領域分割が指定されている場合、すなわち分割した領域ごとの原稿種検知処理が指示されている場合は、分割された個別の領域ごとに原稿種を検知し、領域ごとに抽出した検知結果を、検知画像記憶部160に格納する。  The document type detection unit 140 is divided when theregion designation unit 120 has previously designated region division for the processing target image, that is, when document type detection processing for each divided region is instructed. The document type is detected for each individual area, and the detection result extracted for each area is stored in the detectedimage storage unit 160.

1枚の原稿上に様々な種類の画像が存在しているときに、領域別に原稿種の判定を行なうことで、全体を纏めて原稿種の判定を行なう場合よりも適切な原稿種の判定ができるようになる。また、この結果を受けて、像域分離処理部200にても、領域別に画像分離を行なうことで、結果としては、全体を纏めて像域分離を行なう場合よりも適切な像域分離ができるようになる。  When various types of images exist on a single document, the document type is determined for each region, so that a more appropriate document type can be determined than when the document type is determined as a whole. become able to. Also, in response to this result, the image areaseparation processing unit 200 also performs image separation for each area, and as a result, image area separation can be performed more appropriately than when the entire image area is separated. It becomes like this.

なお、画像記憶部900は、原稿種類検知部140による検知結果の検知画像記憶部160への格納と同時に、像域分離処理部200や前段画像補正処理部300、色空間変換部400、および後段画像補正処理部500で使用する画像を格納する。  Theimage storage unit 900 stores the detection result by the document type detection unit 140 in the detectedimage storage unit 160, and simultaneously, the image areaseparation processing unit 200, the preceding imagecorrection processing unit 300, the colorspace conversion unit 400, and the subsequent stage. An image used in the imagecorrection processing unit 500 is stored.

像域分離処理部200は、処理対象画像の解像度を変換する解像度変換部220と、原稿種に応じたそれぞれ異なる種類の画像分離方法を用いて像域分離を行なう画像分離部241〜243を具備した画像分離部240と、画像分離部240が採用するべき画像分離方法や分離パラメータを決定する画像分離態様選択部260とを備えている。  The image areaseparation processing unit 200 includes aresolution conversion unit 220 that converts the resolution of the processing target image, andimage separation units 241 to 243 that perform image area separation using different types of image separation methods according to the document type. Theimage separation unit 240 and an image separationmode selection unit 260 that determines an image separation method and separation parameters to be employed by theimage separation unit 240 are provided.

また像域分離処理部200は、原稿種類検知部140で検知された処理対象画像種類(画像種;本例では原稿種)の情報と画像分離部240による画像分離結果(像域情報)を1つのデータに併合(マージ)して、画像記憶部900に記憶されている画像と画素単位で対応付けてかつ同期させて前段画像補正処理部300に向けて出力するマージ処理部280を備えている。  Further, the image areaseparation processing unit 200 takes the information of the processing target image type (image type; original type in this example) detected by the original type detection unit 140 and the image separation result (image area information) by theimage separation unit 240 as one. Amerge processing unit 280 that merges the data into the data and associates and synchronizes with the image stored in theimage storage unit 900 in units of pixels and outputs the image to the preceding imagecorrection processing unit 300. .

画像分離部240は、処理対象原稿について、文字部と写真部の判定、あるいは有彩色と無彩色の判定など、画像オブジェクトを特定する処理を行なう。また、図示を割愛するが、画像分離部240は、判定すべき原稿種ごとに、像域分離処理を行なう際の分離パラメータを記憶するパラメータ記憶部(たとえば不揮発性メモリ)を有している。  Theimage separation unit 240 performs processing for specifying an image object, such as determination of a character portion and a photograph portion, or determination of a chromatic color and an achromatic color, for a processing target document. Although not shown, theimage separation unit 240 includes a parameter storage unit (for example, a non-volatile memory) that stores a separation parameter for performing image area separation processing for each document type to be determined.

ここで、本実施形態においては、画像分離部240は、原稿種類検知部140による原稿種の判定結果(すなわち検知結果の原稿種パターン)に基づいて画像分離方法を決定し、この決定に従って画像分離部241〜243のうちの原稿種に応じた最適なものを選択するとともに、画像分離部241〜243のそれぞれに複数存在する(パラメータ記憶部に記憶されている)分離パラメータの中から原稿種に応じた最適な分離パラメータを選択する。  Here, in the present embodiment, theimage separation unit 240 determines an image separation method based on the document type determination result (that is, the document type pattern of the detection result) by the document type detection unit 140, and image separation is performed according to this determination. Among theunits 241 to 243, an optimum one corresponding to the document type is selected, and a plurality of separation parameters (stored in the parameter storage unit) in each of theimage separation units 241 to 243 are selected as the document type. Select the optimal separation parameter according to the selection.

つまり、画像分離態様選択部260は、原稿種類検知部140による原稿種の判定結果を参照して、画像分離部240における像域分離処理の態様(分離処理方法と分離パラメータ)を特定する選択判定部の機能を持つ。こうすれば、3系統の画像分離部241〜243のうちの何れか1つのみを動作させればよいので、消費電力の低減に繋がる。  That is, the image separationmode selection unit 260 refers to the document type determination result by the document type detection unit 140 and selects and determines the image area separation process mode (separation processing method and separation parameter) in theimage separation unit 240. Have the function of the department. In this way, only one of the three systems ofimage separation units 241 to 243 needs to be operated, leading to a reduction in power consumption.

また、画像分離境界が検知される場合は、解像度変換部220により予め解像度変換を行なって境界をシフトしてから画像分離部240にて像域分離を行なう(詳細は後述する)。  When an image separation boundary is detected, theresolution conversion unit 220 performs resolution conversion in advance to shift the boundary, and then theimage separation unit 240 performs image area separation (details will be described later).

ここで、本実施形態においては、画像分離部240は、3種類の画像分離方法に対応するべく画像分離部241〜243を有している。もちろん、3種類は一例に過ぎず、画像種別の分類に対応できるだけの種類を持てばよい。  Here, in the present embodiment, theimage separation unit 240 includesimage separation units 241 to 243 so as to correspond to three types of image separation methods. Of course, the three types are merely examples, and it is sufficient to have as many types as possible corresponding to the classification of the image types.

本実施形態において、画像分離部241は、文字写真混在画像に適した像域分離を行なうもので、文字と写真が混在する場合のバランスを重視するバランス型のものである。また、画像分離部242は、文字画像に適した像域分離処理を行なう文字・背景文字重視型のものである。また、画像分離部243は、絵柄画像(特に地図原稿)に適した像域分離処理を行なう色背景文字重視型のものであり、画像分離に背景色情報を使用する点に特徴を有している。  In the present embodiment, theimage separation unit 241 performs image area separation suitable for a character / photograph mixed image, and is a balance type that places importance on the balance when characters and photographs are mixed. Theimage separation unit 242 is a character / background character-oriented type that performs image area separation processing suitable for a character image. Theimage separation unit 243 is a color background character-oriented type that performs image area separation processing suitable for a pattern image (especially a map document), and is characterized in that background color information is used for image separation. Yes.

また、画像分離部241〜243に対しては、さらに詳細な分離パラメータを設定できるようになっており、たとえば、図示しない記憶部に、各分離処理手法に対して複数の分離パラメータが登録されている。そして、原稿種類検知部140で検知される検知結果のレベルに基づいて、各分離処理手法に対して複数存在する分離パラメータの中から原稿種に応じた適正な分離パラメータが画像分離態様選択部260にて選択されるようになっている。最終的には、画像分離部240は、選択された最適な分離手法(つまり画像分離部241〜243の何れか1つ)および選択された最適な分離パラメータを用いて画像分離処理を行なう。  Further, more detailed separation parameters can be set for theimage separation units 241 to 243. For example, a plurality of separation parameters are registered for each separation processing method in a storage unit (not shown). Yes. Based on the level of the detection result detected by the document type detection unit 140, an appropriate separation parameter corresponding to the document type is selected from among a plurality of separation parameters for each separation processing method. To be selected. Finally, theimage separation unit 240 performs image separation processing using the selected optimum separation method (that is, any one of theimage separation units 241 to 243) and the selected optimum separation parameter.

なお、本実施形態では、予め、原稿種類検知部140の検知結果に対応した好適な画像分離手法のものを選択して、それのみを原稿種類検知部140の検知結果に対応した好適な分離パラメータにて単独で動作させるようにしているが、このような形態は一例に過ぎず、原稿種類検知部140の検知結果を参照して原稿種に応じた適切な画像分離処理を行なうものである限り、種々の変形が可能である。  In the present embodiment, a suitable image separation method corresponding to the detection result of the document type detection unit 140 is selected in advance, and only a suitable separation parameter corresponding to the detection result of the document type detection unit 140 is selected. However, such a form is merely an example, as long as appropriate image separation processing according to the document type is performed with reference to the detection result of the document type detection unit 140. Various modifications are possible.

たとえば、それぞれ異なる3種類の画像分離手法で画像分離を実行する画像分離部241〜243での処理を、それぞれ原稿種類検知部140の検知結果に対応した好適な分離パラメータにて同一処理対象画像に対して同時に行ない、それぞれの像域分離結果に基づいて、最終的に採用する像域分離結果を特定するようにしてもよい。  For example, the processes in theimage separation units 241 to 243 that perform image separation using three different types of image separation methods are applied to the same processing target image with suitable separation parameters corresponding to the detection results of the document type detection unit 140, respectively. However, it is also possible to simultaneously perform the image region separation results and specify the image region separation results to be finally adopted based on the respective image region separation results.

たとえば、バランス型で文字と検知して、かつ文字重視型検知で文字と検知された像域については文字1とし、バランス型で文字と検知せずに文字重視で文字と検知した場合には文字2とするなどである。  For example, if the image is detected as a character in the balanced type and detected as a character in the character-oriented detection, the character area is set tocharacter 1. If the character is emphasized as a character without detecting the character in the balanced type, the character is detected. 2 and so on.

なお、本実施形態においては、写真(印刷、印画紙、複写)原稿に関しては、画像全面に対し、階調再現、色再現、あるいは粒状性などについてイメージ(絵柄)処理を行なうので、写真原稿用の像域分離処理に適応した機能部を有していない。ただし、たとえば文字/写真の混在と同様のバランス型の画像分離部を設け、分離パラメータを写真よりに設定することで写真用の画像分離に対処することもできる。  In this embodiment, for a photo (print, photographic paper, copy) document, image (picture) processing is performed on the entire image for gradation reproduction, color reproduction, graininess, etc. It does not have a function unit adapted to image area separation processing. However, for example, it is possible to cope with image separation for photographs by providing a balanced type image separation unit similar to the mixture of characters / photos and setting the separation parameter more than the photograph.

マージ処理部280は、たとえば、画像分離部の画像分離結果である通常文字/写真1ビットの画像分離信号を、原稿種類検知部140で検知された処理対象画像種類(画像種;本例では原稿種)の情報を参照して3ビットの情報に拡張し、これにより画像分離結果を2つの状態から少なくとも8つの状態に分離する。そして、この3ビットの像域分離情報を、後段の各画像処理部300〜600に渡す。こうすることで、後段の各画像処理部300〜600にては、原稿種と画像種の双方に関しての適応処理をよりきめ細かく行なうことができ、画質を大幅に改善することができるようになる。  For example, themerge processing unit 280 uses a normal character / photo 1-bit image separation signal, which is an image separation result of the image separation unit, as a processing target image type (image type; original in this example) detected by the document type detection unit 140. The seed information is expanded to 3 bits information, thereby separating the image separation result from two states to at least eight states. Then, the 3-bit image area separation information is passed to theimage processing units 300 to 600 in the subsequent stage. By doing this, each of theimage processing units 300 to 600 in the subsequent stage can perform the adaptive processing for both the document type and the image type more finely, and the image quality can be greatly improved.

前段画像補正処理部300は、その前段側に設けられる図示しない画像読取部(図1参照)や通信インタフェースを介して接続されたパーソナルコンピュータなどの画像入力端末から供給される比較的高ビット数(たとえば8〜10ビット)の画像データDinを、たとえばR(赤),G(緑),B(青)などの色成分ごとに取得する。そして、この色成分ごとの画像データDin_R,Din_G,Din_Bに対して、所定の画像処理を施す。  The pre-stage imagecorrection processing unit 300 has a relatively high bit number (from an image reading unit (not shown) provided on the pre-stage side (see FIG. 1) or an image input terminal such as a personal computer connected via a communication interface ( For example, image data Din of 8 to 10 bits) is acquired for each color component such as R (red), G (green), and B (blue). Then, predetermined image processing is performed on the image data Din_R, Din_G, and Din_B for each color component.

一例として、本実施形態の前段画像補正処理部300は、フィルタ処理を用いた空間周波数補正を行なう空間周波数補正部310を備えている。もちろん、前段画像補正処理部300は、空間周波数補正に限らず、たとえば、下地除去処理、変倍処理、コントラスト調整(濃度調整)処理、色補正処理、などの所定の画像処理(前処理)を施すこともできる。  As an example, the pre-stage imagecorrection processing unit 300 of the present embodiment includes a spatialfrequency correction unit 310 that performs spatial frequency correction using filter processing. Of course, the pre-stage imagecorrection processing unit 300 is not limited to the spatial frequency correction, and performs predetermined image processing (pre-processing) such as background removal processing, scaling processing, contrast adjustment (density adjustment) processing, color correction processing, and the like. It can also be applied.

色空間変換部400は、入力色成分ごとの入力画像データDin_R,Din_G,Din_Bを、画像出力部30が処理対象とするたとえばトナー色に対応したC(シアン),M(マゼンタ),Y(イエロー),K(ブラック)などの色材色成分ごとの色分解データ(以下多値画像データDMVと呼ぶ)に変換する。このような色空間変換処理に当たっては、たとえばRGBデータ→Labデータ→YMCKデータといった処理ステップが採られる。  The colorspace conversion unit 400 converts the input image data Din_R, Din_G, and Din_B for each input color component into C (cyan), M (magenta), and Y (yellow) corresponding to, for example, toner colors to be processed by the image output unit 30. ), K (black) and other color material color components (hereinafter referred to as multi-value image data DMV). For such color space conversion processing, for example, processing steps such as RGB data → Lab data → YMCK data are employed.

後段画像補正処理部500は、色空間変換部400で色空間が変換された色材色対応の多値画像データDMV_C,DMV_M,DMV_Y,DMV_Kに対して、所定の画像処理を施す。一例として、本実施形態の後段画像補正処理部500は、TRC(Tone Reproduction Control)補正処理(階調補正処理とも呼ばれる)を行なう階調補正部510を備えている。もちろん、後段画像補正処理部500は、階調補正に限らず、たとえば、コントラスト調整(濃度調整)処理や色補正処理などの所定の画像処理(後処理)を施すこともできる。  The post-stage imagecorrection processing unit 500 performs predetermined image processing on the multi-valued image data DMV_C, DMV_M, DMV_Y, and DMV_K corresponding to the color material colors whose color space has been converted by the colorspace conversion unit 400. As an example, the post-stage imagecorrection processing unit 500 of the present embodiment includes agradation correction unit 510 that performs TRC (Tone Reproduction Control) correction processing (also referred to as gradation correction processing). Of course, the post-stage imagecorrection processing unit 500 is not limited to gradation correction, and can perform predetermined image processing (post-processing) such as contrast adjustment (density adjustment) processing and color correction processing, for example.

前段画像補正処理部300や後段画像補正処理部500における各処理並びに色空間変換部400における色空間変換処理自体の詳細については、従来のものと同様であるため、ここではその説明を割愛する。  The details of each process in the pre-stage imagecorrection processing unit 300 and the post-stage imagecorrection processing unit 500 and the color space conversion process itself in the colorspace conversion unit 400 are the same as those in the related art, and thus the description thereof is omitted here.

出力データ処理部600は、解像度変換部610とスクリーン生成部630とを有している。解像度変換部610は、たとえば400SPI(Spot Per Inch ;同義語DPI;Dot Per Inch)を600SPIに変換するなどの解像度変換処理を行なう。スクリーン生成部630は、色材色対応の多値画像データDMV_C,DMV_M,DMV_Y,DMV_Kの各々にスクリーン処理をかけた2値化データ(1ビットのデータ)を生成する。たとえば、濃度階調を有する多値画像情報である多値デジタルデータC,M,Y,Kを、網点と呼ばれる着色ドットの大きさによって擬似的に中間調画像の濃度を表わす2値化記録信号を生成し、画像出力部30に渡す。  The outputdata processing unit 600 includes aresolution conversion unit 610 and ascreen generation unit 630. Theresolution conversion unit 610 performs resolution conversion processing such as converting 400 SPI (Spot Per Inch; synonym DPI; Dot Per Inch) to 600 SPI, for example. Thescreen generation unit 630 generates binarized data (1-bit data) obtained by applying screen processing to each of the multivalued image data DMV_C, DMV_M, DMV_Y, and DMV_K corresponding to the color material colors. For example, multi-value digital data C, M, Y, and K, which is multi-value image information having density gradations, are binarized and recorded in a pseudo manner to represent the density of a halftone image by the size of colored dots called halftone dots. A signal is generated and passed to the image output unit 30.

なお、前段画像補正処理部300、色空間変換部400、後段画像補正処理部500、および出力データ処理部600は、像域分離処理部200にて特定される処理対象画像の種類に適応した像域分離処理の結果を参照して、像域に適応した画像処理を行なう像域適応信号処理部の一例である。  The pre-stage imagecorrection processing unit 300, the colorspace conversion unit 400, the post-stage imagecorrection processing unit 500, and the outputdata processing unit 600 are images adapted to the type of processing target image specified by the image areaseparation processing unit 200. It is an example of an image area adaptive signal processing unit that performs image processing adapted to an image area with reference to the result of area separation processing.

これらの各信号処理部は、原稿種類検知部140で特定される原稿種に適応した画像処理パラメータや、像域分離処理部200で特定される像域分離結果を参照して、原稿画像の種別(文字、文字/写真の混在、あるいは地図など)と画像オブジェクト(文字や写真や図形などのその他の絵柄成分など)に適応した各別の画像処理を行なう。なお、画像を適当な数のエリアに分割してエリアごとに像域分離処理を行なう場合には、エリアごとの像域分離処理結果を参照して、各エリアの画像種別(文字、文字/写真の混在、あるいは地図など)に適応した各別の画像処理を行なう。  Each of these signal processing units refers to the image processing parameters adapted to the document type specified by the document type detection unit 140, and the image area separation result specified by the image areaseparation processing unit 200, and the type of document image. Perform separate image processing adapted to (characters, mixed characters / photos, maps, etc.) and image objects (characters, other picture components such as photos and figures). When an image is divided into an appropriate number of areas and image area separation processing is performed for each area, the image type (character, character / photo) of each area is referred to by referring to the image area separation processing result for each area. Mixed image processing, map processing, etc.).

たとえば、像域分離処理部200は、画像分離結果信号として、現在処理を行なっている画像データが原稿内のどの領域(文字部と写真部など)に属するかや有彩色であるのかや無彩色であるのかなどを区別するための領域信号を発生する。これらの領域は、指定領域ごとに、文字、銀塩写真(印画紙)、印刷原稿、インクジェット、蛍光ペン、地図、熱転写原稿など、それぞれの原稿種と画像オブジェクトに最適な色補正係数、空間フィルタ、あるいは階調変換テーブルなどの画像処理パラメータをそれぞれ画像領域に応じて設定することができる。  For example, the image areaseparation processing unit 200 uses, as an image separation result signal, which region (character portion, photo portion, etc.) in the original document the image data currently being processed belongs to, or is achromatic. An area signal is generated for distinguishing whether or not. For each specified area, these areas include characters, silver halide photographs (photographic paper), printed originals, inkjets, highlighters, maps, thermal transfer originals, etc. Alternatively, image processing parameters such as a gradation conversion table can be set for each image area.

前段画像補正処理部300などの像域適応信号処理部は、この像域分離処理部200で発生された領域信号と、原稿種類検知部140で検知される原稿種に基づいて、画像処理で用いるパラメータを最適なものに切り替える。つまり、処理対象画像の種類(たとえば原稿種)の検知結果と画像分離結果の両方を用いて、処理対象画像に対して適応処理を行なう。たとえば、原稿種に応じた下地除去量にて下地除去処理を行ないつつ、文字や絵柄のそれぞれに適した強調処理を行なう。  The image area adaptive signal processing unit such as the pre-stage imagecorrection processing unit 300 is used for image processing based on the area signal generated by the image areaseparation processing unit 200 and the document type detected by the document type detection unit 140. Switch to the optimal parameter. That is, the adaptive processing is performed on the processing target image using both the detection result of the type of the processing target image (for example, the document type) and the image separation result. For example, while performing background removal processing with a background removal amount corresponding to the document type, enhancement processing suitable for each character or picture is performed.

なお、本実施形態においては、写真(印刷、印画紙、複写)に関しては、画像全面に対し、階調再現、色再現、あるいは粒状性などについてイメージ(絵柄)処理を行なうので、像域分離パラメータを用いた画像処理を行なうことはない。ただし、たとえば文字/写真の混在と同様の像域分離処理結果を参照して、より写真に適応した像域分離パラメータを用いて各別の画像処理を行なうようにすることもできる。  In the present embodiment, with respect to photographs (printing, photographic paper, copying), image (picture) processing is performed on the entire image for gradation reproduction, color reproduction, graininess, and the like. No image processing using is performed. However, for example, by referring to an image area separation process result similar to that in the case of mixing characters / photographs, it is possible to perform different image processes using image area separation parameters more suitable for photographs.

<原稿種類検知部について>
図3は、原稿種類検知部140の内部構成の詳細を説明する機能ブロック図である。原稿種類検知部140は、種々の観点から処理対象画像を評価し、この評価結果を示す各観点のスコア値に基づいて原稿種を特定するべく、各観点に対応した画像評価部を備えている。つまり、処理対象画像の種類の特定に適した複数の観点から画像の特徴量を抽出し、この抽出した複数の観点からの各特徴量と予め記憶されている画像種ごとの特徴量とを比較することにより処理対象画像の種類を判定する機能部を備えている。
<About the document type detection unit>
FIG. 3 is a functional block diagram illustrating details of the internal configuration of the document type detection unit 140. The document type detection unit 140 includes an image evaluation unit corresponding to each viewpoint in order to evaluate the processing target image from various viewpoints and to specify the document type based on the score value of each viewpoint indicating the evaluation result. . In other words, feature values of an image are extracted from a plurality of viewpoints suitable for specifying the type of image to be processed, and the feature quantities from the extracted viewpoints are compared with pre-stored feature quantities for each image type. Thus, a function unit for determining the type of the processing target image is provided.

たとえば、原稿種類検知部140は、処理対象画像の種類の特定に適した複数の観点から画像の特徴量を抽出する機能部の一例として、浮動(最適)2値化を含む2値化処理結果の観点から原稿画像を評価する2値化評価部141と、収縮膨張処理と処理前の画像の論理演算結果の観点から原稿画像を評価する収縮膨張評価部142と、特定濃度および周辺画素の同レベルの画素値を持つ領域を抽出することで高濃度領域に着目して原稿画像を評価する濃度評価部143とを有する。  For example, the document type detection unit 140 is a binarization processing result including floating (optimum) binarization as an example of a functional unit that extracts image feature amounts from a plurality of viewpoints suitable for specifying the type of processing target image. The binarization evaluation unit 141 that evaluates the original image from the viewpoint of the image, the contraction /expansion evaluation unit 142 that evaluates the original image from the viewpoint of the logical operation result of the contraction / expansion process and the image before processing, Adensity evaluation unit 143 that evaluates a document image by focusing on a high density area by extracting an area having a level pixel value.

たとえば、2値化評価部141は、浮動2値化を含む2値化処理結果におけるオン画素の数をカウントして出力する。なお、浮動2値化とは、中間調レベルのある多値レベル画像を2値データに変換する際に、多値レベル画像を、単純な固定閾値との比較により2値化するのではなく、周囲の状況を反映して、たとえば薄い文字を“掠れ”を発生させずに取り込んだり、あるいは全体が濃い雰囲気の中の薄い部分を確実に“白”に取り込んだりするように、閾値をダイナミックに最適化させて2値化する方式を意味する。  For example, the binarization evaluation unit 141 counts and outputs the number of ON pixels in the binarization processing result including floating binarization. Note that floating binarization is not to binarize a multilevel image by comparing it with a simple fixed threshold when converting a multilevel image having a halftone level into binary data. Reflecting the surrounding situation, for example, the threshold value can be dynamically changed so that a thin character is captured without causing “smearing”, or a thin portion in a dark atmosphere is captured as “white”. It means a method of optimizing and binarizing.

また、収縮膨張評価部142は、収縮膨張処理と処理前の画像の論理演算をすることで、文字など細い領域として抽出し、その画素数をカウントして出力する。  Further, the contraction /expansion evaluation unit 142 performs a logical operation on the contraction / expansion process and the image before processing to extract a thin area such as a character, and counts and outputs the number of pixels.

また、濃度評価部143は、特定濃度および周辺画素の同レベルの画素値を持つ領域を抽出し、その画素数をカウントして出力する。  In addition, thedensity evaluation unit 143 extracts a region having a specific density and pixel values of the same level of peripheral pixels, counts the number of pixels, and outputs the result.

また、原稿種類検知部140は、処理対象画像の種類の特定に適した複数の観点から画像の特徴量を抽出する機能部の他の一例として、中間調生成手段であるスクリーン種における網点の観点から原稿画像を評価する網点評価部144と、色の観点から原稿画像を評価する色黒(彩度)評価部145とを備えている。  The document type detection unit 140 is another example of a functional unit that extracts image feature amounts from a plurality of viewpoints suitable for specifying the type of image to be processed. A halftonedot evaluation unit 144 that evaluates a document image from a viewpoint and a color black (saturation) evaluation unit 145 that evaluates a document image from a color viewpoint are provided.

また、原稿種類検知部140は、処理対象画像の種類の特定に適した複数の観点から画像の特徴量を抽出する機能部の他の一例として、線分検知の観点から原稿画像を評価する線分評価部146と、エッジの観点から原稿画像を評価するエッジ評価部147と、中間調生成手段であるスクリーン種における誤差拡散およびディザの観点から原稿画像を評価する誤差拡散・ディザスクリーンパターン評価部148とを備えている。  The document type detection unit 140 is a line that evaluates a document image from the viewpoint of line segment detection, as another example of a functional unit that extracts image feature amounts from a plurality of viewpoints suitable for specifying the type of processing target image. Aminute evaluation unit 146, anedge evaluation unit 147 that evaluates a document image from the viewpoint of edges, and an error diffusion / dither screen pattern evaluation unit that evaluates a document image from the viewpoint of error diffusion and dither in a screen type that is ahalftone generation unit 148.

網点評価部144は、網点が存在するか否かの観点から原稿種を評価するもので、網点らしさによりスコア付けを行ない、そのスコア値を出力する。たとえば、注目画素からの距離が遠いほど、すなわち低線数の網点であるほど、スコア値を高く設定する。  The halftonedot evaluation unit 144 evaluates the document type from the viewpoint of whether or not there is a halftone dot. The halftonedot evaluation unit 144 performs scoring according to the likelihood of halftone dots and outputs the score value. For example, the score value is set higher as the distance from the target pixel is longer, that is, as the number of dots is lower.

色黒評価部145は、処理対象画素が、色成分を持つのか無彩色であるのかを判定する色黒判定機能を持つ。色黒評価部145は、設定した所定の閾値以上の色成分値を持つ画素の数をカウントして出力する。  The color black evaluation unit 145 has a color black determination function for determining whether the processing target pixel has a color component or an achromatic color. The black-and-black evaluation unit 145 counts and outputs the number of pixels having color component values that are equal to or greater than a predetermined threshold value.

線分評価部146は、線分をなす画素の数をカウントして出力する。エッジ評価部147は、画像を微分し、隣接画素値との差分を抽出するなどしてエッジ画素を特定し、エッジ画素の数をカウントして出力する。  The linesegment evaluation unit 146 counts and outputs the number of pixels forming the line segment. Theedge evaluation unit 147 differentiates the image, identifies the edge pixel by extracting a difference from the adjacent pixel value, and counts and outputs the number of edge pixels.

なお、線分評価部146とエッジ評価部147の各カウント結果を参照すれば、文字/写真の分離境界(画像種の分離境界)をなす1mm幅など特定幅の線分をなす画素の数が得られる。つまり、線分評価部146とエッジ評価部147とで、特定幅の線分が、文字部分のものであるのか絵柄部分(写真などの中間調部分)のものであるのかを評価する、すなわち特定幅の線分が存在するか否かの観点から画像種の境界を判定する(特定幅境界検知を行なう)境界検知部149が構成される。たとえば、モルフォロジ演算における円形フィルタなどを用いて文字/写真の分離境界の幅を設定することで、特定幅(たとえば1mm)の境界を検知する。  Referring to the count results of the linesegment evaluation unit 146 and theedge evaluation unit 147, the number of pixels forming a line segment having a specific width such as 1 mm width forming a character / photo separation boundary (image type separation boundary) can be obtained. can get. That is, the linesegment evaluation unit 146 and theedge evaluation unit 147 evaluate whether a line segment having a specific width is a character part or a picture part (halftone part such as a photograph), that is, a specific part. Aboundary detection unit 149 that determines the boundary of the image type (performs a specific width boundary detection) from the viewpoint of whether or not a width line segment exists is configured. For example, the boundary of a specific width (for example, 1 mm) is detected by setting the width of a character / photo separation boundary using a circular filter or the like in a morphological operation.

また、網点評価部144と境界検知部149とにより、網点や特定幅の細線に関しての画像分離境界検知を行なう画像分離境界検知部が構成される。  In addition, the halftonedot evaluation unit 144 and theboundary detection unit 149 constitute an image separation boundary detection unit that performs image separation boundary detection for halftone dots and a thin line having a specific width.

誤差拡散・ディザスクリーンパターン評価部148は、網点評価部144と同様に中間調生成手段であるスクリーン種の観点から原稿画像を評価するものであるが、自分コピーまたはプリント出力をスキャンする原稿として想定した、いわゆるジェネレーションコピー(子、孫コピー)の観点から原稿画像を評価する点に特徴を有している。この場合、中間調生成手段であるスクリーンは、誤差拡散やディザなど予め分かっているので、その点を考慮した評価を行なう。  The error diffusion / dither screenpattern evaluation unit 148, like the halftonedot evaluation unit 144, evaluates the original image from the viewpoint of the screen type which is a halftone generation unit. It is characterized in that the original image is evaluated from the viewpoint of an assumed so-called generation copy (child, grandchild copy). In this case, since the screen which is the halftone generating means is known in advance such as error diffusion and dithering, the evaluation is performed in consideration of this point.

また、原稿種類検知部140は、各評価部141〜147で抽出される各評価結果(画素数やスコア値)に対応する判定すべき画像種ごとの評価値を記憶する標準データ記憶部150と、各評価部141〜147で抽出される各評価結果(画素数やスコア値)と総合評価部150に予め記憶されている画像種ごとの評価値(つまり特徴量)とを比較することにより処理対象画像の種類を判定する機能部の一例として総合評価部152を備えている。  The document type detection unit 140 includes a standarddata storage unit 150 that stores evaluation values for each image type to be determined corresponding to the evaluation results (number of pixels and score values) extracted by the evaluation units 141 to 147. Processing is performed by comparing each evaluation result (number of pixels or score value) extracted by each evaluation unit 141 to 147 with an evaluation value (that is, feature amount) for each image type stored in advance in thecomprehensive evaluation unit 150. Acomprehensive evaluation unit 152 is provided as an example of a functional unit that determines the type of target image.

総合評価部152は、各評価部141〜147の評価結果(画素数やスコア値)を、所定の基準に基づいてレベル分けし、そのレベル分け結果の総合評価に基づいて原稿種を特定する。たとえば、総合評価部152は、評価対象画像についての各評価部141〜147の評価結果(画素数やスコア値)を、レベル0からレベル10までにレベル分けし、その評価結果の各レベルと、文字、写真、混在、地図の標準的な各レベルとを比較して、最も近似したレベル分けに属するものに評価対象画像を割り当てることで、原稿種を特定する。  Thecomprehensive evaluation unit 152 classifies the evaluation results (number of pixels and score values) of the evaluation units 141 to 147 based on a predetermined standard, and specifies the document type based on the comprehensive evaluation of the level classification results. For example, thecomprehensive evaluation unit 152 divides the evaluation results (number of pixels and score values) of the evaluation units 141 to 147 for the evaluation target image into levels fromlevel 0 tolevel 10, and each level of the evaluation result includes: The document type is specified by comparing the standard levels of characters, photos, mixed images, and maps, and assigning evaluation target images to those that belong to the most approximate level classification.

<領域指定部と原稿種類検知部との関わりについて>
図4は、領域指定部120と原稿種類検知部140との関わりを説明する原稿画像の分割概念を示す図である。ここでは、処理対象画像を、主走査方向および副走査方向のそれぞれについて4分割して、同一面内で、分割された複数領域(本例では計16個)の原稿種類を検知する場合について示している。
<Relationship between the area specification section and the document type detection section>
FIG. 4 is a diagram showing the concept of document image division for explaining the relationship between thearea designation unit 120 and the document type detection unit 140. In this example, the processing target image is divided into four parts in each of the main scanning direction and the sub-scanning direction, and a document type of a plurality of divided areas (total of 16 in this example) is detected in the same plane. ing.

ここで、領域分割を行なうのは、原稿種類の検知精度を上げることで、より画像種に応じた適切な画像処理を行なうためである。たとえば、文字、写真、地図画像が同一画像上に混在するとき、たとえばカタログなどで左半分は写真で右半分は説明文となっているように、これらが分布する領域には偏りがある場合がある。このような場合においては、領域分割を行なうことで、原稿の全面を一括して原稿種を特定して画像処理するよりも、領域別に原稿種を特定して画像処理することで、領域別に原稿種に応じた適応処理ができるようになる。  Here, the region division is performed in order to perform appropriate image processing corresponding to the image type by increasing the accuracy of detecting the document type. For example, when characters, photos, and map images are mixed on the same image, the area where these are distributed may be biased, for example, in the catalog, the left half is a photo and the right half is an explanatory text. is there. In such a case, by dividing the area, it is possible to specify the document type for each area and perform image processing rather than collectively specifying the document type for the entire surface of the original and perform image processing. Adaptive processing according to species can be performed.

領域指定部120は、予めカラー複写装置1にプリセットされている領域指定情報あるいはユーザインタフェース部15やユーザインタフェース装置16(図1参照)を介して入力された領域指定情報に基づき、処理対象画像を、主走査方向および副走査方向のそれぞれについて所定数に分割する。なお、検知位置や分割数については、任意の値を設定可能とするのがよい。  Thearea designation unit 120 selects an image to be processed based on area designation information preset in thecolor copying apparatus 1 or area designation information input via the user interface unit 15 or the user interface apparatus 16 (see FIG. 1). Then, a predetermined number is divided for each of the main scanning direction and the sub scanning direction. It should be noted that any value can be set for the detection position and the number of divisions.

原稿種類検知部140の各評価部141〜147は、領域指定部120による領域指定値数分の画素値やスコア値を保持するためのカウンタを持つ。図示した例では、主走査方向および副走査方向のそれぞれについて4分割して計16個に領域分割しているので、16個のカウンタを持つ。  Each of the evaluation units 141 to 147 of the document type detection unit 140 has a counter for holding pixel values and score values corresponding to the number of region designation values by theregion designation unit 120. In the example shown in the figure, each of the main scanning direction and the sub-scanning direction is divided into four areas and divided into a total of 16 areas, so that 16 counters are provided.

そして、主走査方向の指定値(fs1,fs2,fs3)ごとにカウンタを切り替え、副走査方向の指定値ss1−1ラインで領域A11〜領域A14の最終ラインとし、fs1,fs2,fs3でカウントアップを終了する。  Then, the counter is switched for each designated value (fs1, fs2, fs3) in the main scanning direction, the designated value ss1-1 line in the sub-scanning direction is used as the final line of the area A11 to the area A14, and counts up at fs1, fs2, fs3. Exit.

総合評価部152は、各評価結果に基づいて原稿種の判定を行ない、そこで得られる総合評価結果を、領域別に検知画像記憶部160に格納する。  Thecomprehensive evaluation unit 152 determines the document type based on each evaluation result, and stores the comprehensive evaluation result obtained there in the detectedimage storage unit 160 for each region.

なお、総合評価部152は、分割した領域ごとの原稿種の判定結果を、隣接領域の原稿種の判定を参照して補正するようにしてもよい。  Thecomprehensive evaluation unit 152 may correct the document type determination result for each divided area with reference to the determination of the document type of the adjacent area.

たとえば、領域A12,A21,A22の判定結果が、文字、写真、文字/写真、地図の何れかの内で全て同じである一方、領域A11の判定結果が、隣接するこれら領域A12,A21,A22の判定結果と異なる場合には、その隣接するこれら領域A12,A21,A22の判定結果を、その領域A11の最終的な判定結果として使用する。この補正手法は、隣接領域に対して、特異的に異なる領域が存在することは希であるとの前提に基づくものである。  For example, the determination results of the areas A12, A21, and A22 are all the same in any one of characters, photos, characters / photos, and maps, while the determination result of the area A11 is adjacent to these areas A12, A21, and A22. If it is different from the determination result, the determination results of these adjacent areas A12, A21, A22 are used as the final determination result of the area A11. This correction method is based on the premise that there is rarely a region that is specifically different from the adjacent region.

<解像度変換部について>
図5は、解像度変換部220の内部構成の詳細を説明する機能ブロック図である。解像度変換部220は、網点評価部144や、線分評価部146とエッジ評価部147とで構成される境界検知部149の評価結果(すなわち観点4,6,7の各評価結果)を検知画像記憶部160から読み出し、各評価結果に基づいて、網点種や文字/写真の分離境界の有無や程度と関係における解像度変換の要否を判定する分離境界判定部222と、分離境界判定部222の判定結果(オン/オフ信号)に基づいて処理対象画像の解像度を変換する変換実行部224とを有している。
<About the resolution converter>
FIG. 5 is a functional block diagram illustrating details of the internal configuration of theresolution conversion unit 220. Theresolution conversion unit 220 detects the evaluation result (that is, each evaluation result ofviewpoints 4, 6 and 7) of the halftonedot evaluation unit 144 and theboundary detection unit 149 including the linesegment evaluation unit 146 and theedge evaluation unit 147. A separationboundary determination unit 222 that reads out from theimage storage unit 160 and determines whether or not resolution conversion is necessary in relation to the presence / absence or degree of a halftone dot type or character / photo separation boundary based on each evaluation result, and a separation boundary determination unit And aconversion execution unit 224 that converts the resolution of the processing target image based on the determination result 222 (ON / OFF signal).

先にも述べたように、原稿種類検知部140には、網点を検知できる網点評価部144や特定幅(たとえば1mm幅)の線分を検知できる境界検知部149を備えているので、画像分離境界検知を行なうことができる。  As described above, the document type detection unit 140 includes the halftonedot evaluation unit 144 that can detect halftone dots and theboundary detection unit 149 that can detect a line segment having a specific width (for example, 1 mm width). Image separation boundary detection can be performed.

分離境界判定部222は、たとえば、網点評価部144における網点の観点や境界検知部149における2つ(特定幅の線分およびエッジ)の観点の各評価結果と画像出力部30などにおけるハードウェア仕様とを参照して、処理対象画像に対する解像度変換の要否を判定する。  The separationboundary determination unit 222 includes, for example, evaluation results of halftone dots in the halftonedot evaluation unit 144 and two evaluation results (line segments and edges of a specific width) in theboundary detection unit 149, hardware in the image output unit 30, and the like. Whether or not resolution conversion is necessary for the processing target image is determined with reference to the hardware specification.

変換実行部224は、分離境界判定部222によって画像種の境界が存在すると判定されたことを条件に処理対象画像の解像度を変換する、すなわち、画像分離境界が検知される場合には像域分離を行なう画像に対して解像度変換を行なうことで、分離境界を原稿上に存在しない領域にシフトさせる。  Theconversion execution unit 224 converts the resolution of the processing target image on the condition that the boundary of the image type is determined to be present by the separationboundary determination unit 222, that is, the image region separation when the image separation boundary is detected. By performing resolution conversion on the image to be performed, the separation boundary is shifted to an area that does not exist on the document.

つまり、画像分離が境界付近で不安定となる要因が生じたか否かを分離境界判定部222にて判定し、画像分離境界が検知されている場合など不安定要因が生じた場合は、その問題を防ぐため、変換実行部224にて、処理対象画像を検知画像記憶部160から読み出し、解像度変換を行なうことで境界をシフトする一方、不安定要因が生じていない場合には、変換実行部224による解像度変換を行なわない。  That is, the separationboundary determination unit 222 determines whether or not a factor causing the image separation to become unstable near the boundary. If an unstable factor occurs such as when the image separation boundary is detected, the problem In order to prevent this, theconversion execution unit 224 reads the processing target image from the detectedimage storage unit 160 and performs resolution conversion to shift the boundary. On the other hand, if there is no instability factor, theconversion execution unit 224 The resolution conversion by is not performed.

たとえば、文字/写真分離境界検知に関しては、処理対象画像を複数の領域に分割して原稿種の検知とそれに基づく画像分離を行なう場合に、境界検知部149における検知結果(領域別の観点6,7の検査結果)が領域分割した領域の半分以上に入力画像に分離境界が多いと判定される場合は、入力画像を低解像度に変換することで、見かけ上の検知ウインドウサイズを大きくし、これにより、境界域を原稿画像に含まれていない領域にシフトする。  For example, with respect to character / photo separation boundary detection, when the image to be processed is divided into a plurality of regions to detect the document type and image separation based thereon, the detection result in the boundary detection unit 149 (region-specific viewpoint 6, If it is determined that the input image has many separation boundaries in more than half of the divided area, the apparent detection window size is increased by converting the input image to a lower resolution. Thus, the boundary area is shifted to an area not included in the document image.

より具体的に説明すると、600dpi画像に対して、像域分離(たとえば文字と写真の分離)を行なう場合、文字(TEXT)と写真(IMAGE)の分離境界を1mm近辺に設定した際に、入力画像に1mm近辺の画像が多いときには、分離結果が不安定となり、画像処理で処理がバタつき、プリント出力時に画質が劣化してしまう。  More specifically, when image area separation (for example, separation of characters and photographs) is performed on a 600 dpi image, input is performed when the separation boundary between characters (TEXT) and photographs (IMAGE) is set near 1 mm. When there are many images around 1 mm in the image, the separation result becomes unstable, the processing is fluttered by image processing, and the image quality deteriorates at the time of print output.

そこで、線分評価部146での線分検知により、入力画像に1mm近辺の画像が多いと判定される場合には、解像度変換部220にて予め入力画像を低解像度に変換することで見かけ上の検知ウインドウサイズを大きくする。これにより、画像分離境界域を原稿画像に含まれていない領域にシフトした上で画像分離部240にて画像分離処理を行ない、その結果を、後段の各画像処理部300〜600に出力して適応画像処理を行なう。この結果、画像分離結果がバタ付くことによるコピー出力の画質が大幅に劣化することを低減することができるようになる。  Therefore, when it is determined by the line segment detection in the linesegment evaluation unit 146 that the input image includes many images around 1 mm, theresolution conversion unit 220 apparently converts the input image to a low resolution in advance. Increase the detection window size. As a result, the image separation boundary area is shifted to an area not included in the document image, and then theimage separation unit 240 performs image separation processing, and the result is output to the subsequentimage processing units 300 to 600. Perform adaptive image processing. As a result, the image quality of the copy output due to the fluttering of the image separation result can be reduced.

また、網点分離境界検知についても同様で、処理対象画像の解像度を変換することで、入力原稿の網点線数と画像分離部240が処理する実質的な網点の線数とを異なるものとする。  The same applies to halftone dot separation boundary detection. By converting the resolution of the processing target image, the number of halftone lines of the input document and the number of substantial halftone dots processed by theimage separation unit 240 are different. To do.

たとえば、ハードウェアの制約で、網点分離境界を50線と設定したときに、入力原稿として50線網点原稿が使用されると、画像分離部240における画像分離が境界付近で不安定となり、後段の各画像処理部300〜600における画像処理がバタつくためプリント出力時に画質が劣化する。  For example, when a halftone dot separation boundary is set to 50 lines due to hardware restrictions, if a 50-line halftone original is used as an input original, image separation in theimage separation unit 240 becomes unstable near the boundary, Since image processing in each of theimage processing units 300 to 600 in the subsequent stage fluctuates, the image quality deteriorates at the time of print output.

そこで、網点についても文字/写真分離境界検知と同様に、たとえば分離境界を50線45度網点と設定している場合、原稿に境界網点多数存在すると判定される場合、解像度変換部220にて予め入力画像の解像度を変換することで、網点分離境界を原稿上に存在しない線数にシフトする。  Therefore, as with character / photo separation boundary detection, for example, when the separation boundary is set as a 50-line 45-degree halftone dot, and it is determined that there are a large number of boundary halftone dots in the document, theresolution conversion unit 220 By converting the resolution of the input image in advance, the halftone dot separation boundary is shifted to the number of lines that do not exist on the document.

具体的には縮小処理(実質的な網点の線数をより低い線数に設定することと等価)を行ない、網点が分離境界から外れるようにすることで、対処する。もちろん、これに限らず、入力原稿の網点線数と画像分離部240が処理する実質的な網点の線数とを異なるものとすればよく、拡大処理を行なうことで対処してもよい。ただし、この場合には、処理対象画素数が増える欠点がある。  Specifically, a reduction process (equivalent to setting the number of lines of a substantial halftone dot to a lower number of lines) is performed so that the halftone dots deviate from the separation boundary. Of course, the present invention is not limited to this, and the number of halftone lines of the input document may be different from the number of substantial halftone lines processed by theimage separation unit 240, and may be dealt with by performing enlargement processing. However, in this case, there is a drawback that the number of pixels to be processed increases.

これにより、網点分離境界を原稿画像に含まれていない領域にシフトした上で画像分離部240にて画像分離処理を行ない、その結果を、後段の各画像処理部300〜600に出力して適応画像処理を行なう。この結果、画像分離結果がバタ付くことによるコピー出力の画質が大幅に劣化することを低減することができるようになる。  As a result, the halftone dot separation boundary is shifted to an area not included in the original image, and then theimage separation unit 240 performs image separation processing, and the result is output to the subsequentimage processing units 300 to 600. Perform adaptive image processing. As a result, the image quality of the copy output due to the fluttering of the image separation result can be reduced.

<処理手順の概要>
図6は、上記構成の画像処理部20における像域分離に関わる処理手順の概要を説明するフローチャートである。
<Outline of processing procedure>
FIG. 6 is a flowchart for explaining an outline of a processing procedure related to image area separation in the image processing unit 20 configured as described above.

原稿種類検知部140は、先ず、領域指定部120にて処理対処画像に対して領域分割が指定されているか否かを判断する(S10)。領域分割が指定されている場合には、原稿種類検知部140の各評価部141〜148は、分割された個別の領域ごとに原稿種を検知し、領域ごとに抽出した検知結果を、検知画像記憶部160に画像と対応付けて格納する(S10−YES,S12,S16)。領域分割が指定されていない場合には、原稿種類検知部140の各評価部141〜148は、処理対処画像の全面について原稿種を検知し、抽出した検知結果を、検知画像記憶部160に画像と対応付けて格納する(S10−NO,S14,S16)。  First, the document type detection unit 140 determines whether or not region division is designated for the processing-treated image by the region designation unit 120 (S10). When region division is designated, each of the evaluation units 141 to 148 of the document type detection unit 140 detects the document type for each of the divided individual regions, and the detection result extracted for each region is used as a detection image. The image is stored in thestorage unit 160 in association with the image (S10-YES, S12, S16). When area division is not designated, each of the evaluation units 141 to 148 of the document type detection unit 140 detects the document type for the entire surface of the processing coping image, and the extracted detection result is stored in the detectedimage storage unit 160 as an image. (S10-NO, S14, S16).

解像度変換部220の分離境界判定部222は、網点評価部144や境界検知部149の評価結果に基づいて画像分離境界が検知されるか否かを判断する(S20)。画像分離境界が検知されている(分離境界判定部222からオン信号が出力されている)場合には、解像度変換部220の変換実行部224は、事実上(見かけ上)、境界域が原稿画像に含まれていない状態となるように、処理対象画像の解像度を変換してから画像分離部240に渡す(S20−YES,S22,S26)。一方、画像分離境界が検知されていない(分離境界判定部222からオフ信号が出力されている)場合には、解像度変換部220の変換実行部224は、処理対象画像に対する解像度変換処理を行なうことなく画像分離部240に渡す(S20−NO,S24,S26)。  The separationboundary determination unit 222 of theresolution conversion unit 220 determines whether an image separation boundary is detected based on the evaluation results of the halftonedot evaluation unit 144 and the boundary detection unit 149 (S20). When an image separation boundary is detected (an ON signal is output from the separation boundary determination unit 222), theconversion execution unit 224 of theresolution conversion unit 220 is virtually (apparently) the boundary area is a document image. The resolution of the processing target image is converted so as not to be included in the image, and then transferred to the image separation unit 240 (S20-YES, S22, S26). On the other hand, when an image separation boundary is not detected (an off signal is output from the separation boundary determination unit 222), theconversion execution unit 224 of theresolution conversion unit 220 performs resolution conversion processing on the processing target image. Without being transferred to the image separation unit 240 (S20-NO, S24, S26).

画像分離態様選択部260は、原稿種類検知部140における画像種の評価結果を参照して、画像分離処理にて使用する分離方法と分離パラメータとを決定する(S30)。画像分離部240の各画像分離部241〜243は、この決定された分離方法と分離パラメータとに従って処理対象画像について像域を分離する、すなわち文字や写真などの画像オブジェクトを特定するなどのための画像分離処理を行なう(S32)。  The image separationmode selection unit 260 refers to the evaluation result of the image type in the document type detection unit 140 and determines a separation method and a separation parameter used in the image separation process (S30). Each of theimage separation units 241 to 243 of theimage separation unit 240 separates the image area of the processing target image according to the determined separation method and separation parameter, that is, for specifying an image object such as a character or a photograph. Image separation processing is performed (S32).

マージ処理部280は、原稿種類検知部140で検知された原稿種の情報と画像分離部240による画像分離結果をマージし、画像記憶部900に記憶されている画像と画素単位で対応付けてかつ同期させて前段画像補正処理部300に向けて出力する(S34)。ステップS22で解像度変換処理を行なった場合は、分離結果を元の解像度に戻した後、同期出力を行なう。  Themerge processing unit 280 merges the document type information detected by the document type detection unit 140 and the image separation result by theimage separation unit 240, associates the image stored in theimage storage unit 900 with the pixel unit, and Synchronized and output to the pre-stage image correction processing unit 300 (S34). When resolution conversion processing is performed in step S22, the separation result is returned to the original resolution, and then synchronous output is performed.

前段画像補正処理部300、色空間変換部400、後段画像補正処理部500、および出力データ処理部600は、原稿種類検知部140で特定される原稿種や像域分離処理部200で特定される像域分離結果を参照して、原稿画像の種別と画像オブジェクトに適応した像域分離パラメータを用いて各別の画像処理を行なう(S36)。  The pre-stage imagecorrection processing unit 300, the colorspace conversion unit 400, the post-stage imagecorrection processing unit 500, and the outputdata processing unit 600 are specified by the original type and image areaseparation processing unit 200 specified by the original type detection unit 140. With reference to the image area separation result, each image processing is performed using the image area separation parameter adapted to the type of the original image and the image object (S36).

<総合評価と画像分離の態様との関係>
図7〜図9は、総合評価部152における総合評価方法と画像分離の態様との関係の具体例を説明する図である。ここで図7は、文字、写真、混在、地図の各標準原稿の各評価観点の評価値例を示す図表である。図8は、図7の評価値例を折れ線図で示したもので、横軸は図7に示した評価の観点番号であり、縦軸はそのレベル値である。
<Relationship between comprehensive evaluation and image separation mode>
7 to 9 are diagrams illustrating specific examples of the relationship between the comprehensive evaluation method and the image separation mode in thecomprehensive evaluation unit 152. FIG. Here, FIG. 7 is a chart showing an example of evaluation values for each evaluation point of each standard manuscript of text, photograph, mixed, and map. FIG. 8 shows an example of the evaluation values in FIG. 7 in a broken line diagram, where the horizontal axis is the viewpoint number of the evaluation shown in FIG. 7, and the vertical axis is the level value.

また図9は、画像分離部240に用意されている3種類の画像分離方法と、それぞれについての分離パラメータの種類とを纏めた図表である。図では、それぞれタイプ1〜N1,タイプ1〜N2,タイプ1〜N3が分離パラメータとして用意されている。N1〜N3は、原稿種の区別に対応するように設定する。以下、これらを纏めて、単に1〜Nとも記す。  FIG. 9 is a table summarizing the three types of image separation methods prepared in theimage separation unit 240 and the types of separation parameters for each. In the figure,types 1 to N1,types 1 to N2, andtypes 1 to N3 are prepared as separation parameters. N1 to N3 are set so as to correspond to the document type distinction. Hereinafter, these are collectively referred to as 1 to N.

たとえば、2値化評価部141による浮動2値化を含む2値化処理結果(観点1の検査結果)は、文字原稿や絵柄(写真(文字との混在を含む)や地図)原稿の特定に適する評価値である。文字原稿の場合には、単純な2値化処理で問題ないが、絵柄原稿の場合には中間調レベルのある原稿であるから浮動2値化を含む2値化処理にするのが好ましい。また、該当画素数は通常、文字原稿よりも絵柄原稿の方が多く、評価値の度合いは文字原稿よりも絵柄原稿の方が大きくなる傾向にある。  For example, the binarization processing result including the floating binarization performed by the binarization evaluation unit 141 (inspection result of viewpoint 1) is used to specify a character manuscript or a picture (a photograph (including a mixture of characters) or a map) manuscript. It is a suitable evaluation value. In the case of a text original, there is no problem with a simple binarization process, but in the case of a picture original, since it is an original with a halftone level, it is preferable to use a binarization process including floating binarization. In addition, the number of corresponding pixels is usually larger for a pattern document than for a character document, and the degree of the evaluation value tends to be larger for a pattern document than for a character document.

収縮膨張評価部142による収縮膨張処理などに関する評価結果(観点2の検査結果)は、絵柄原稿の特定に適する評価値である。文字原稿の場合には、評価値の度合いとしては、絵柄原稿の場合は極めて大きく、文字原稿の場合には極めて小さく(殆どゼロに近くに)なる傾向にある。  The evaluation result (inspection result of viewpoint 2) related to the contraction / expansion processing by the contraction /expansion evaluation unit 142 is an evaluation value suitable for specifying a picture document. In the case of a text document, the evaluation value tends to be extremely large in the case of a pattern document and extremely small (almost close to zero) in the case of a text document.

濃度評価部143による特定濃度に関する評価結果(観点3の検査結果)は、2値化処理の評価結果と同様に、文字原稿や絵柄原稿の特定に適する評価値である。ただし、評価値の度合いとしては、濃度に着目したものであるので、その観点で評価値の現われ方に相違がでる。  The evaluation result on the specific density (inspection result of viewpoint 3) by thedensity evaluation unit 143 is an evaluation value suitable for specifying a character original or a picture original, similarly to the evaluation result of the binarization process. However, as the degree of the evaluation value, attention is paid to the concentration, and thus the way the evaluation value appears differs from that viewpoint.

たとえば、パーソナルコンピュータ(パソコンと称す)などのアプリケーションソフトの出力結果であることが多い一般的な文字原稿の場合には評価値が極めて大きくなる傾向にあるが、鉛筆文字原稿やトレーシングペーパーへの印刷原稿などの第2原図のように載りの悪い文字原稿の場合には比較的薄く記載されるので中程度になる傾向にある。また比較的鮮明に現わされる写真原稿の場合には極めて大きく、中濃度で表わされる傾向にある地図原稿の場合には評価値も中程度になる。なお、図示しないが、トレーシングペーパーへの複写原稿のように第2原図が複写原稿の場合には、極めて濃く出力される場合もあり、この場合には評価値も極めて大きくなる。  For example, in the case of general character manuscripts, which are often output from application software such as personal computers (called personal computers), the evaluation value tends to be extremely large. In the case of a poorly placed character original such as a second original such as a printed original, it is relatively thin and tends to be medium. In addition, in the case of a photographic manuscript that appears relatively clearly, the evaluation value is moderate in the case of a map manuscript that tends to be represented by medium density. Although not shown, when the second original is a copy original, such as a copy original on tracing paper, the output may be extremely dark. In this case, the evaluation value is also extremely large.

網点評価部144による網点に関する評価結果(観点4の検査結果)は、収縮膨張処理などに関する評価結果と同様に、絵柄原稿の特定に適する評価値である。ただし、評価値の度合いとしては、網点に着目したものであるので、その観点で評価値の現われ方に相違がでる。たとえば、文字原稿では通常網点処理がなされないので極めて小さく(殆どゼロに近くに)なり、また、印画紙原稿(いわゆる銀塩を使用した写真原稿が典型例)の場合も通常網点処理がなされないので極めて小さく(殆どゼロに近くに)なるが、写真の印刷や複写(コピー)の場合には通常網点処理がなされるので極めて大きくなる傾向にある。地図原稿は、文字と写真の印刷や複写の混在原稿と同レベルと考えてよく、中程度になる傾向にある。  The evaluation result related to the halftone dot (inspection result of viewpoint 4) by the halftonedot evaluation unit 144 is an evaluation value suitable for specifying the pattern original, as in the case of the evaluation result related to the contraction and expansion processing. However, as the degree of the evaluation value, attention is paid to halftone dots, so that the evaluation value appears differently from that viewpoint. For example, normal halftone processing is not performed on a text original, so it is very small (almost close to zero). Also, normal halftone processing is also applied to a photographic paper original (typically a photographic original using a so-called silver salt). Since it is not done, it becomes extremely small (almost close to zero), but in the case of printing or copying (copying) a photo, it usually tends to become very large because halftone processing is performed. Map manuscripts can be considered at the same level as mixed manuscripts of character and photo printing and copying, and tend to be moderate.

色黒評価部145による彩度に関する評価結果(観点5の検査結果)は、色付き原稿の特定に適する評価値である。よって、モノクロ原稿の場合には、彩度成分は殆ど検知されないので極めて小さく(殆どゼロに近くに)なり、カラー原稿の場合には彩度成分が存在するので大きくなる傾向にある。また、カラー原稿の場合においても、該当画素数は通常、カラー文字原稿よりもカラー絵柄原稿の方が多く、カラー文字原稿よりもカラー絵柄原稿の方が値が大きくなる傾向にある。  The evaluation result regarding the saturation by the black-and-black evaluation unit 145 (the inspection result of viewpoint 5) is an evaluation value suitable for specifying a colored document. Therefore, in the case of a monochrome manuscript, the saturation component is hardly detected and thus becomes extremely small (almost close to zero), and in the case of a color manuscript, the saturation component exists and tends to increase. Also in the case of a color original, the number of corresponding pixels is usually larger for a color picture original than for a color letter original, and tends to be larger for a color picture original than for a color letter original.

線分評価部146による線分に関する評価結果(観点6の検査結果)は、線分が存在する原稿の特定に適する評価値である。よって、写真原稿の場合には、線分は殆ど検知されないので極めて小さく(殆どゼロに近くに)なり、文字原稿や地図原稿の場合には線分が存在するので大きくなる傾向にある。また、文字原稿内や地図原稿との対比では、トレーシングペーパーの使用は線分が極めて多い製図図面に多く、また地図原稿も比較的線分が多く中程度になる傾向にある。また、線分を引く場合でも、パソコンなどの出力結果である文字原稿の場合には直線が精度よく現われるので評価値は中程度になるが、鉛筆書きでは直線精度が悪くなる傾向にあり評価値が極めて小さく(殆どゼロに近くに)なる。  The evaluation result (inspection result of viewpoint 6) regarding the line segment by the linesegment evaluation unit 146 is an evaluation value suitable for specifying a document in which the line segment exists. Therefore, in the case of a photographic document, the line segment is hardly detected and thus becomes extremely small (nearly zero), and in the case of a text document or a map document, the line segment exists and tends to be large. Also, in contrast to text manuscripts and map manuscripts, the use of tracing paper is often used for drafting drawings with a very large number of line segments, and map manuscripts tend to be relatively medium with many line segments. In addition, even when drawing a line segment, a straight line appears with high accuracy in the case of a text manuscript that is output from a personal computer, etc., so the evaluation value is moderate. Becomes very small (almost close to zero).

エッジ評価部147によるエッジに関する評価結果(観点7の検査結果)は、エッジ画素が存在する原稿の特定に適する評価値である。2値で表わされる文字原稿では、エッジ画素が比較的多く評価値が極めて大きくなるが、絵柄原稿は中間調画像であり、エッジ画素はさほど多くなく評価値は中程度になる傾向にある。ただし、文字原稿であっても、鉛筆書きでは鮮明さはなく評価値が極めて小さく(殆どゼロに近くに)なる傾向にある。  The edge evaluation result (inspection result of viewpoint 7) by theedge evaluation unit 147 is an evaluation value suitable for specifying a document in which edge pixels exist. In a character document represented by binary values, the number of edge pixels is relatively large and the evaluation value is extremely large. However, the pattern document is a halftone image, and the number of edge pixels is not so large and the evaluation value tends to be medium. However, even a text original is not clear in pencil writing, and the evaluation value tends to be extremely small (almost close to zero).

誤差拡散・ディザスクリーンパターン評価部148による誤差拡散やディザに関する評価結果(観点8の検査結果)は、誤差拡散やディザで中間調表現されたスキャン原稿(すなわち処理対象原稿)の特定に適する評価値である。通常、写真が、誤差拡散やディザで中間調表現される原稿の対象となるので、写真原稿や文字/写真の混在原稿の複写では評価値が極めて大きくなるが、他は極めて小さく(殆どゼロに近くに)なる傾向にある。  The error diffusion and dither evaluation result (inspection result of viewpoint 8) by the error diffusion / dither screenpattern evaluation unit 148 is an evaluation value suitable for specifying a scanned original (that is, a processing target original) expressed in halftone by error diffusion or dither. It is. Normally, a photograph is a target of an original that is expressed in halftones by error diffusion or dither. Therefore, the evaluation value is extremely large when copying a photographic original or mixed text / photo original, but the others are extremely small (almost zero). Tend to be near).

総合評価部152は、たとえば、文字、写真、混在、地図のそれぞれ標準的な原稿を評価した際の各評価部141〜147の評価結果(画素数やスコア値)を、低、中、高の3つにレベル分けする。そして、実際の評価対象原稿の各評価結果のレベルと、文字、写真、混在、地図の標準的な各レベルとを比較して、最も近似した評価対象画像を特定することで評価対象原稿の原稿種を特定する。  For example, thecomprehensive evaluation unit 152 sets the evaluation results (number of pixels and score values) of the evaluation units 141 to 147 when evaluating standard manuscripts of characters, photos, mixed images, and maps as low, medium, and high. Divide into 3 levels. Then, by comparing the level of each evaluation result of the actual evaluation target document with the standard levels of characters, photos, mixed images, and maps, and specifying the closest evaluation target image, the original of the evaluation target document Identify the species.

すなわち、図7および図8から分かるように、検知結果(画素数またはスコア値)をレベル分けすることで、文字、写真、混在、地図の各標準原稿の各観点1〜7の評価結果のパターンは、原稿種によって異なり、原稿によって傾向が現れる。したがって、実際の評価対象原稿の各評価結果の各レベルが、何れの原稿種の評価結果のパターンに近いかを判断することで、その評価対象原稿の原稿種を一義的に特定することができる。  That is, as can be seen from FIG. 7 and FIG. 8, by patterning the detection results (number of pixels or score values) into levels, the patterns of evaluation results for each viewpoint 1-7 of each standard manuscript of text, photo, mixed, and map Varies depending on the document type, and a tendency appears depending on the document. Therefore, it is possible to uniquely specify the document type of the evaluation target document by determining which level of each evaluation result of the actual evaluation target document is close to the pattern of the evaluation result of which document type. .

画像分離部240は、この一義的に特定される評価対象原稿の原稿種に応じて、図9に示す3種類の画像分離方法と各分離パラメータの中から、画像分離部240が使用するべき画像分離方法(処理タイプ;画像分離部241〜243)と、それに設定すべき分離パラメータ(1〜N)を特定することができる。  Theimage separation unit 240 selects an image to be used by theimage separation unit 240 from the three types of image separation methods and the separation parameters shown in FIG. 9 according to the document type of the document to be uniquely specified. A separation method (processing type;image separation units 241 to 243) and a separation parameter (1 to N) to be set for the separation method can be specified.

たとえば、図7および図8に示した原稿タイプの例では、文字/写真の混在原稿(印刷/印画紙/複写の何れか)であることが原稿種類検知部140にて検知されると、像域分離処理部200は、画像分離部241〜243の中からバランス型の画像分離部241を選択する。また、本例の場合、文字/写真の混在原稿を細分化する基準として印刷/印画紙/複写が存在するので、分離パラメータ1〜N1(本例ではN1=3でよい)の中から印刷/印画紙/複写のそれぞれに適応したものを選択する。  For example, in the example of the document type shown in FIG. 7 and FIG. 8, when the document type detection unit 140 detects that the document is a mixed document of characters / photos (either printing / printing paper / copying), The areaseparation processing unit 200 selects the balancedimage separation unit 241 from theimage separation units 241 to 243. In the case of this example, printing / photographic paper / copying is present as a reference for subdividing a mixed document of characters / photos. Therefore, printing / printing from amongseparation parameters 1 to N1 (N1 = 3 in this example) is possible. Select the one suitable for each photographic paper / copy.

また、文字原稿(普通/鉛筆/第2原図の何れか)であることが原稿種類検知部140にて検知されると、像域分離処理部200は、画像分離部241〜243の中から文字・背景文字重視型の画像分離部242を選択する。また、本例の場合、文字原稿を細分化する基準として普通/鉛筆/第2原図が存在するので、分離パラメータ1〜N2(本例ではN2=3でよい)の中から普通/鉛筆/第2原図のそれぞれに適応したものを選択する。  When the document type detection unit 140 detects that the document is a character document (ordinary / pencil / second original drawing), the image areaseparation processing unit 200 selects a character from theimage separation units 241 to 243. The background character-orientedimage separation unit 242 is selected. In the case of this example, since the normal / pencil / second original drawing exists as a reference for subdividing the text document, the normal / pencil / secondary drawing is selected from among theseparation parameters 1 to N2 (N2 = 3 in this example). Select the one that is appropriate for each of the two original drawings.

また、地図原稿であることが原稿種類検知部140にて検知されると、像域分離処理部200は、画像分離部241〜243の中から色背景文字重視型の画像分離部243を選択する。なお、本例の場合、地図原稿を細分化する基準がなく、様々な種類の地図原稿に対して一律な判定を行なうので、分離パラメータ1〜N3に関しては、1つのみを用意しておけばよい。  When the document type detection unit 140 detects that the document is a map document, the image areaseparation processing unit 200 selects animage separation unit 243 that emphasizes color background characters from theimage separation units 241 to 243. . In this example, there is no standard for subdividing the map document, and uniform determination is performed for various types of map documents. Therefore, only oneseparation parameter 1 to N3 should be prepared. Good.

ただし、たとえば、プロセスインクと網点によって形成された多色刷りの地図や特色(プロセスインク以外の色)によって網点を使用せずに形成された地図、あるいは印刷所や地域によって特色の濃度を変更した地図など、様々な種類の地図原稿を区別するようにして、それに応じて分離パラメータ1〜N3に関しても適切なものを選択する仕組みにすることができる。  However, for example, a multicolored map formed with process ink and halftone dots, a map formed without using halftone dots due to special colors (colors other than process ink), or the density of special colors was changed depending on the print shop or area. Different types of map manuscripts such as a map can be distinguished, and an appropriate one can be selected for theseparation parameters 1 to N3 accordingly.

また、該当する画像種の標準的な評価値のパターンと評価対象画像の評価値のパターンとの類似の度合いに基づいて、図2では図示を割愛したパラメータ記憶部に記憶されている該当する画像種の分離パラメータを修正(微調整)して使用してもよい。こうすることで、パラメータ記憶部に記憶する分離パラメータの種類を少なくしつつ、実際の評価対象画像により適合した分離パラメータを用いて像域分離処理ができるようになる。  Further, based on the degree of similarity between the standard evaluation value pattern of the corresponding image type and the evaluation value pattern of the evaluation target image, the corresponding image stored in the parameter storage unit omitted in FIG. The seed separation parameters may be modified (fine tuned) for use. By doing so, it is possible to perform image area separation processing using separation parameters that are more suitable for the actual evaluation target image while reducing the types of separation parameters stored in the parameter storage unit.

マージ処理部280は、原稿種類検知部140で検知された原稿種の情報と画像分離部240による画像分離結果を、画像記憶部900に記憶されている画像と画素単位で対応付けてかつ同期させて前段画像補正処理部300に向けて出力する。  Themerge processing unit 280 associates and synchronizes the document type information detected by the document type detection unit 140 and the image separation result by theimage separation unit 240 with the image stored in theimage storage unit 900 in units of pixels. Output to the pre-stage imagecorrection processing unit 300.

なお、先にも述べたが、本実施形態においては、写真(印刷、印画紙、複写)に関しては、それ用の像域分離処理に対応した機能部を有していないので、原稿種類検知部140で検知された原稿種が写真である場合には、マージ処理部280は、原稿種類検知部140で検知された原稿種の情報のみを画素単位で対応付けて(マージして)、画像記憶部900に記憶されている画像と同期させて前段画像補正処理部300に向けて出力する。  As described above, in the present embodiment, the photo type (printing, photographic paper, copying) does not have a functional unit corresponding to the image area separation processing for the photo (printing, photographic paper, copying). When the document type detected in 140 is a photograph, themerge processing unit 280 associates (merges) only the information on the document type detected by the document type detection unit 140 in units of pixels, and stores the image. The image is output to the pre-stage imagecorrection processing unit 300 in synchronization with the image stored in theunit 900.

ただし、たとえば文字/写真の混在と同様のバランス型の画像分離部を設け、分離パラメータを写真より設定にすることで画像分離に対処することもできる。この場合、写真原稿(印刷/印画紙/複写の何れか)であることが原稿種類検知部140にて検知されると、像域分離処理部200は、画像分離部241〜243の中からバランス型の画像分離部241を選択し、かつ分離パラメータ1〜N1の中から、印刷/印画紙/複写のそれぞれに適応したより写真よりのものを選択する。  However, for example, it is possible to deal with image separation by providing a balanced type image separation unit similar to the combination of characters / photos and setting the separation parameter from that of a photo. In this case, when the document type detection unit 140 detects that the document is a photographic document (any one of printing / photographic paper / copying), the image areaseparation processing unit 200 balances theimage separation units 241 to 243. Theimage separation unit 241 of the mold is selected, and from theseparation parameters 1 to N1, the one from the photograph adapted to each of printing / printing paper / copying is selected.

以上説明したように、本実施形態によれば、原稿種類検知部140で検知される原稿種の評価結果のレベルに基づいて、画像分離部240において適用する画像分離方法および分離パラメータを、処理対処原稿の原稿種に最適化させることができる。  As described above, according to the present embodiment, the image separation method and the separation parameter applied in theimage separation unit 240 are processed according to the level of the document type evaluation result detected by the document type detection unit 140. It can be optimized for the original document type.

これにより、文字原稿、写真原稿、文字と写真の混在原稿、地図原稿など、種々の原稿画像に対して、それぞれに適した像域分離処理と分離パラメータを適用して画像分離を行ない、その結果を反映した像域適応の画像処理ができるようになる。  As a result, image separation is performed by applying image area separation processing and separation parameters suitable for various original images such as text originals, photo originals, mixed text and photo originals, and map originals. Image area adaptive image processing reflecting the above can be performed.

上記実施形態の例で言えば、
1)文字/写真の混在画像や写真に適した像域分離処理として、バランスを重視した画像分離部241を用いることができる。
2)文字画像に適した像域分離処理として、文字や背景文字を重視した画像分離部242を用いることができる。
3)地図画像に適した像域分離処理として、色や背景文字を重視した画像分離部243を使用することができる。
In the example of the above embodiment,
1) Animage separation unit 241 with an emphasis on balance can be used as an image area separation process suitable for mixed text / photo images and photographs.
2) As an image area separation process suitable for a character image, animage separation unit 242 that emphasizes characters and background characters can be used.
3) As an image area separation process suitable for a map image, animage separation unit 243 that emphasizes colors and background characters can be used.

加えて、たとえば文字に関しては、さらに普通/鉛筆/第2原図に適応した最適な分離パラメータを設定できるし、文字/写真の混在画像や写真画像に関しては、さらに印刷/印画紙/複写に適応した最適な分離パラメータを設定できる。  In addition, for example, it is possible to set optimum separation parameters suitable for normal / pencil / second original drawing for characters, and for printing / printing paper / copying for mixed images / photographic images of characters / photos. Optimal separation parameters can be set.

この結果、検知した原稿種に応じた最適な画像分離と、この画像分離結果を反映した最適な画像処理を行なわない構成で生じ得るような問題を解消することができる。たとえば、画像読取部10にセットされた原稿に対して、最適な画像分離手法と分離パラメータを選択して画像分離を行なうことができ、さらに原稿種類の検知結果と画像分離結果の両方を用いて、入力原稿に対して適応処理を行なうことができ、最適なコピー出力を生成することができる。  As a result, it is possible to solve problems that may occur in a configuration in which optimal image separation according to the detected document type and optimal image processing reflecting the image separation result are not performed. For example, image separation can be performed by selecting an optimal image separation method and separation parameters for a document set in theimage reading unit 10, and using both the document type detection result and the image separation result. Thus, adaptive processing can be performed on the input document, and an optimum copy output can be generated.

さらに詳述すれば、文字重視型の分離処理に際して、エッジ検知(画像微分:隣接画素値の差分)の結果を採用する場合、背景文字を抽出しやすい反面、文字/写真の混在画像にこれを適用すると、イメージ中の輪郭を文字エッジとして抽出してしまうという欠点が生じる。  More specifically, when using the result of edge detection (image differentiation: difference between adjacent pixel values) in character-oriented separation processing, it is easy to extract a background character, but this is applied to a mixed image of characters / photos. When applied, there is a drawback that the contour in the image is extracted as a character edge.

これに対して、本実施形態では、文字画像に適した像域分離処理を、バランスを重視すべき文字/写真の混在画像に適用することはなく、たとえば写真部に画質劣化を発生させてしまうようなことは起きない。  On the other hand, in the present embodiment, image area separation processing suitable for a character image is not applied to a mixed image of characters / photographs that should emphasize balance, and for example, image quality deterioration occurs in a photographic part. Such a thing does not happen.

また、浮動2値化処理で、文字の印刷部を抽出し、画像細らせ処理や太らせ処理を行なう輪郭抽出処理(たとえば特開平2−294885号公報を参照)がある。この方法では、背景文字周辺画素の平均値を取ると白背景に対して濃度がアップしているため、背景文字は白背景中の文字に比べて、地色と文字部のコントラストが低く、イメージ(絵柄)に判定してしまう。よって、背景文字に対して、イメージ用の画像処理を行なうこととなり、シャープ感が低下してしまう。  In addition, there is a contour extraction process (see, for example, Japanese Patent Application Laid-Open No. Hei 2-29485) that extracts a print portion of a character by floating binarization processing and performs image thinning processing or thickening processing. In this method, when the average value of the surrounding pixels of the background character is taken, the density is increased with respect to the white background, so the background character has a lower contrast between the ground color and the character part than the character in the white background, and the image (Picture) is judged. Therefore, image processing for an image is performed on the background character, and the sharpness is lowered.

これに対して、本実施形態では、文字や背景文字を重視すべき文字画像に文字写真混在(バランス型)分離処理を適用することはなく、たとえば、シャープ感が低下した見にくい背景文字を再現してしまうようなことは起きない。  On the other hand, in this embodiment, character photo mixed (balanced) separation processing is not applied to a character image that emphasizes characters and background characters. For example, a difficult-to-see background character with reduced sharpness is reproduced. Nothing will happen.

また、原稿が地図である(文字とも異なる)と判明した場合には、画像分離部243により背景の色情報をも参照して画像分離を行なうので、たとえば画像分離部242により文字や背景文字を重視した画像分離を行なうことはなく、カラー地図に適応した像域分離ができるようになる。  If the document is found to be a map (different from characters), theimage separation unit 243 also refers to the background color information to perform image separation. Image separation that is important is not performed, and image area separation adapted to a color map can be performed.

また、画像分離処理に必ず存在する分離境界について、特許文献2に記載の仕組みでは、切り替える画像処理間の出力特性ギャップを低減する手段を備えていないため、重大な画質劣化が発生し易い。特に、出力スクリーン[文字600線/写真200線]を切り替える場合である。これに対して、本実施形態の構成では、画像分離境界が検知されるときには解像度を変換してから画像分離処理を行なうようにすることで、発生し得る画質劣化を低減することができる。  Further, with respect to the separation boundary that always exists in the image separation processing, the mechanism described inPatent Document 2 does not include means for reducing the output characteristic gap between the switched image processing, so that serious image quality degradation is likely to occur. In particular, the output screen [character 600 lines /photo 200 lines] is switched. On the other hand, in the configuration of the present embodiment, the image quality degradation that may occur can be reduced by performing the image separation process after converting the resolution when the image separation boundary is detected.

本発明に係る画像形成装置の一実施形態であるカラー複写装置を示す概略図である。1 is a schematic view showing a color copying apparatus which is an embodiment of an image forming apparatus according to the present invention.画像処理部の像域分離に関わる部分に着目した機能ブロック図である。It is a functional block diagram which paid its attention to the part in connection with image area separation of an image processing part.原稿種類検知部の内部構成の詳細を説明する機能ブロック図である。3 is a functional block diagram illustrating details of an internal configuration of a document type detection unit. FIG.領域指定部と原稿種類検知部との関わりを説明する図である。It is a figure explaining the relationship between an area | region designation | designated part and a document kind detection part.解像度変換部の内部構成の詳細を説明する機能ブロック図である。It is a functional block diagram explaining the detail of the internal structure of a resolution conversion part.像域分離に関わる処理手順の概要を説明するフローチャートである。It is a flowchart explaining the outline | summary of the process procedure in connection with image area separation.文字、写真、混在、地図の各標準原稿の各評価観点の評価値例を示す図表である。It is a chart which shows the example of an evaluation value of each evaluation viewpoint of each standard manuscript of a character, a photograph, mixed, and a map.図7の評価値例に基づく折れ線図である。FIG. 8 is a broken line diagram based on the evaluation value example of FIG. 7.画像分離部に設定されている3種類の画像分離方法と、それぞれについての分離パラメータの種類とを纏めた図表である。6 is a chart summarizing three types of image separation methods set in the image separation unit and types of separation parameters for each of them.

符号の説明Explanation of symbols

1…カラー複写装置、10…画像読取部、20…画像処理部、30…画像出力部、100…原稿種分類処理部、120…領域指定部、140…原稿種類検知部、141…2値化評価部、142…収縮膨張評価部、143…濃度評価部、144…網点評価部、145…色黒評価部、146…線分評価部、147…エッジ評価部、148…誤差拡散・ディザスクリーンパターン評価部、149…境界検知部、150…標準データ記憶部、152…総合評価部、160…検知画像記憶部、200…像域分離処理部、220…解像度変換部、222…分離境界判定部、224…変換実行部、240〜243…画像分離部、260…画像分離態様選択部、262…手法・パラメータ設定部、264…選択部、280…マージ処理部、300…前段画像補正処理部、310…空間周波数補正部、400…色空間変換部、500…後段画像補正処理部、510…階調補正部、600…出力データ処理部、610…解像度変換部、630…スクリーン生成部、900…画像記憶部  DESCRIPTION OFSYMBOLS 1 ... Color copying apparatus, 10 ... Image reading part, 20 ... Image processing part, 30 ... Image output part, 100 ... Document type classification | category processing part, 120 ... Area designation | designated part, 140 ... Document type detection part, 141 ...Binarization Evaluation unit 142 ... Shrinkageexpansion evaluation unit 143 ...Density evaluation unit 144 ... Halftone dot evaluation unit 145 ... Colorblack evaluation unit 146 ... Linesegment evaluation unit 147 ...Edge evaluation unit 148 ... Error diffusion / dither screen Pattern evaluation unit, 149 ... boundary detection unit, 150 ... standard data storage unit, 152 ... comprehensive evaluation unit, 160 ... detected image storage unit, 200 ... image area separation processing unit, 220 ... resolution conversion unit, 222 ... separationboundary determination unit 224 ... Conversion execution unit, 240-243 ... Image separation unit, 260 ... Image separation mode selection unit, 262 ... Method / parameter setting unit, 264 ... Selection unit, 280 ... Merge processing unit, 300 ... Preliminary imagesupplement Processing unit 310 ... Spatialfrequency correction unit 400 ... Colorspace conversion unit 500 ... Subsequent imagecorrection processing unit 510 ...Gradation correction unit 600 ... Outputdata processing unit 610 ...Resolution conversion unit 630 ... Screen generation unit 900: Image storage unit

Claims (9)

Translated fromJapanese
処理対象画像の種類に適応した画像処理を行なう画像処理方法であって、
前記処理対象画像の種類に適応した像域分離処理を行ない、
前記処理対象画像の種類に適応した像域分離処理の結果を参照して、像域に適応した画像処理を行なう
ことを特徴とする画像処理方法。
An image processing method for performing image processing adapted to the type of image to be processed,
Perform image area separation processing adapted to the type of image to be processed,
An image processing method, wherein image processing adapted to an image area is performed with reference to a result of image area separation processing adapted to the type of image to be processed.
処理対象画像の種類に適応した画像処理を行なう画像処理装置であって、
前記処理対象画像の種類を特定する原稿種分類処理部と、
前記原稿種分類処理部が特定した前記処理対象画像の種類に適応した像域分離処理を行なう像域分離処理部と、
前記像域分離処理部により得られる、前記処理対象画像の種類に適応した像域分離処理の結果を参照して、像域に適応した画像処理を行なう像域適応信号処理部と
を備えたことを特徴とする画像処理装置。
An image processing apparatus that performs image processing adapted to the type of image to be processed,
A document type classification processing unit for specifying the type of the processing target image;
An image region separation processing unit that performs image region separation processing adapted to the type of the processing target image specified by the document type classification processing unit;
An image area adaptive signal processing unit that performs image processing adapted to the image area with reference to the result of the image area separation process adapted to the type of the processing target image obtained by the image area separation processing unit. An image processing apparatus.
前記像域適応信号処理部は、前記原稿種分類処理部が特定した前記処理対象画像の種類にも適応した画像処理を行なう
ことを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the image area adaptive signal processing unit performs image processing adapted to the type of the processing target image specified by the document type classification processing unit.
前記原稿種分類処理部は、前記処理対象画像の種類の特定に適した複数の観点から前記処理対象画像の特徴量を抽出し、この抽出した複数の観点からの各特徴量と予め記憶されている画像種ごとの特徴量とを比較することにより前記処理対象画像の種類を判定する
ことを特徴とする請求項2または3に記載の画像処理装置。
The document type classification processing unit extracts feature amounts of the processing target image from a plurality of viewpoints suitable for specifying the type of the processing target image, and is stored in advance as the feature amounts from the extracted plurality of viewpoints. The image processing apparatus according to claim 2, wherein the type of the processing target image is determined by comparing a feature amount for each image type.
前記処理対象画像の分割領域を指示する領域指定部をさらに備え、
前記原稿種分類処理部は、前記領域指定部により指示された分割領域ごとに前記処理対象画像の種類を特定し、
前記像域分離処理部は、前記原稿種分類処理部が特定した分割領域ごとの前記処理対象画像の種類を参照して、分割領域ごとの前記処理対象画像の種類に適応した像域分離処理を行なう
ことを特徴とする請求項2〜4のうちの何れか1項に記載の画像処理装置。
An area designating unit for designating a divided area of the processing target image;
The document type classification processing unit specifies the type of the processing target image for each divided region designated by the region specifying unit,
The image area separation processing unit refers to the type of the processing target image for each divided region specified by the document type classification processing unit, and performs image region separation processing adapted to the type of the processing target image for each divided region. The image processing device according to claim 2, wherein the image processing device is performed.
前記処理対象画像の解像度を変換する解像度変換部をさらに備え、
前記像域適応信号処理部は、前記解像度変換部により前記解像度変換が施された処理対象画像を対象として、前記処理対象画像の種類に適応した像域分離処理を行なう
ことを特徴とする請求項2〜5のうちの何れか1項に記載の画像処理装置。
A resolution converter that converts the resolution of the processing target image;
The image area adaptive signal processing unit performs an image area separation process adapted to the type of the processing target image for the processing target image subjected to the resolution conversion by the resolution conversion unit. The image processing apparatus according to any one of 2 to 5.
前記原稿種分類処理部は、網点が存在するか否かの観点、または特定幅の線分が存在するか否かの観点から、画像種の境界を判定し、
前記解像度変換部は、前記画像種の境界が存在すると判定されたことを条件に、前記処理対象画像の解像度を変換する
ことを特徴とする請求項6に記載の画像処理装置。
The document type classification processing unit determines a boundary between image types from the viewpoint of whether halftone dots are present or whether a line segment having a specific width exists.
The image processing apparatus according to claim 6, wherein the resolution conversion unit converts the resolution of the processing target image on the condition that it is determined that a boundary of the image type exists.
処理対象画像の種類に適応した画像処理を行ない、その処理結果に基づいて所定の記録媒体に画像を形成する画像形成装置であって、
前記処理対象画像の種類を特定する原稿種分類処理部と、
前記原稿種分類処理部が特定した前記処理対象画像の種類に適応した像域分離処理を行なう像域分離処理部と、
前記像域分離処理部により得られる、前記処理対象画像の種類に適応した像域分離処理の結果を参照して、像域に適応した画像処理を行なう像域適応信号処理部と、
前記像域適応信号処理部による処理結果に基づいて所定の記録媒体に画像を形成する画像出力部と
を備えたことを特徴とする画像形成装置。
An image forming apparatus that performs image processing suitable for the type of processing target image and forms an image on a predetermined recording medium based on the processing result,
A document type classification processing unit for specifying the type of the processing target image;
An image region separation processing unit that performs image region separation processing adapted to the type of the processing target image specified by the document type classification processing unit;
An image area adaptive signal processing unit for performing image processing adapted to an image area with reference to a result of an image area separation process adapted to the type of the processing target image obtained by the image area separation processing unit;
An image output apparatus comprising: an image output unit configured to form an image on a predetermined recording medium based on a processing result by the image area adaptive signal processing unit.
原稿画像を光学的に走査して読み取ることで前記処理対象画像を取得する画像読取部をさらに備えた
ことを特徴とする請求項8に記載の画像形成装置。
The image forming apparatus according to claim 8, further comprising an image reading unit that acquires the processing target image by optically scanning and reading a document image.
JP2005081038A2005-03-222005-03-22Image processing method, image processor and image forming apparatusPendingJP2006270148A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2005081038AJP2006270148A (en)2005-03-222005-03-22Image processing method, image processor and image forming apparatus

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2005081038AJP2006270148A (en)2005-03-222005-03-22Image processing method, image processor and image forming apparatus

Publications (1)

Publication NumberPublication Date
JP2006270148Atrue JP2006270148A (en)2006-10-05

Family

ID=37205685

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2005081038APendingJP2006270148A (en)2005-03-222005-03-22Image processing method, image processor and image forming apparatus

Country Status (1)

CountryLink
JP (1)JP2006270148A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2008141680A (en)*2006-12-052008-06-19Canon Inc Image forming apparatus and method for controlling image forming apparatus
JP2008271488A (en)*2007-03-282008-11-06Sharp Corp Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
US8073284B2 (en)2008-04-032011-12-06Seiko Epson CorporationThresholding gray-scale images to produce bitonal images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2008141680A (en)*2006-12-052008-06-19Canon Inc Image forming apparatus and method for controlling image forming apparatus
JP2008271488A (en)*2007-03-282008-11-06Sharp Corp Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
US8073284B2 (en)2008-04-032011-12-06Seiko Epson CorporationThresholding gray-scale images to produce bitonal images

Similar Documents

PublicationPublication DateTitle
JP4166744B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
CN101360175B (en)Image processing method, image processing apparatus, image forming apparatus, and image reading apparatus
CN100454963C (en) Image processing device and method, image forming device, image reading device
US8345310B2 (en)Halftone frequency determination method and printing apparatus
JP4170353B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, program, and recording medium
JPH1169150A (en) Image area identification method, image processing apparatus, and image forming apparatus
US8451476B2 (en)Image processing apparatus, image processing method, and computer program product
US6909803B2 (en)Text color detection for copier image processing
JP2002232708A (en) Image processing apparatus, image forming apparatus including the same, and image processing method
JP2000175031A (en)Image processing unit, image processing method and image input device
CN101247465A (en) Image processing method and device, image forming device, program, and recording medium
JP4531606B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP4884305B2 (en) Image processing apparatus, image forming apparatus, computer program, and recording medium
JP4050220B2 (en) Image processing method, image processing apparatus, image forming apparatus, program, and recording medium
JP2005101765A (en) Image processing method, image processing apparatus, and image forming apparatus
JP6474315B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP2006270148A (en)Image processing method, image processor and image forming apparatus
JP2019134232A (en)Image formation device, and method and program for the device
JP5549836B2 (en) Image processing apparatus and image processing method
JP4043982B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium recording the same
JP4958626B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP3316077B2 (en) Background density level detector
JP3581756B2 (en) Image processing device
JP4498316B2 (en) Image processing apparatus, image processing method, image forming apparatus, and computer program
JP3522880B2 (en) Image processing apparatus and image forming apparatus

[8]ページ先頭

©2009-2025 Movatter.jp