【0001】
【発明の属する技術分野】
本発明は、画像データに含まれている面積階調画像データに対して適切な処理を施す画像処理装置、画像読取装置、画像形成装置、画像処理方法、画像処理プログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体に関するものである。
【0002】
【従来の技術】
スキャナなどの画像入力装置から読み込まれる原稿には、文字原稿、網点などの面積階調で表される印刷写真原稿、印画紙写真原稿およびこれらの混在したものなどがある。
【0003】
読み込まれた原稿の画像データは、例えばデジタル複写機に備えられた画像処理装置において、所望の画像処理が施されて出力される。このような画像処理の一例としては、色補正処理・黒生成下色除去処理・空間フィルタ処理・階調再現処理などがある。
【0004】
また、上記の処理に加えて、例えば、領域分離処理と呼ばれる処理によって、文字領域、網点領域、写真(印画紙写真)領域などの複数の領域を識別し、各種領域に応じて適した処理を施すことで画質の向上が図られていた。
【0005】
ところで、原稿画像が特にカラーの場合、特定の色、例えば、人の肌、空の青、草木の緑等の色であって、元の画像に忠実な色の再現を行うよりも、人間が記憶している色に近い色の再現を好ましく感じるような色である記憶色等に対しては、その色用の画像処理を行う必要がある。
【0006】
このような処理を行うものとしては、記憶色領域を予め定めておき、演算式を用いて画素ごとに記憶色領域に含まれるか否か判定を行い、記憶色と判定された画素数をカウントして全画素数に対する比率を求めて閾値と比較し、その記憶色用に色分解条件を設定する必要があるか否かを判断する構成がある(例えば、特許文献1参照)。
【0007】
【特許文献1】
特開平2−50859号公報(1990年2月20日公開)
【0008】
【非特許文献1】
高橋利至、吉田雅之、瀬政孝義、小野文孝(三菱電機(株)),「文字/網点/写真混在画像の適応2値化方式」,第121回研究会講演予稿(画像電子学会),1991年3月22日,19〜24頁
【0009】
【発明が解決しようとする課題】
しかしながら、上記特許文献1の構成では、例えば、肌色の領域の各画素がほぼ肌色である印画紙写真に対しては有効であるが、肌色の領域であっても肌色の画素は少なくほとんどの画素が肌色とは異なる色で構成されている面積階調画像に対しては、記憶色であるか否か正しく判定することができない。即ち、面積階調画像領域においては、特定色の判別は困難であった。
【0010】
ここで、面積階調画像データとは、中間調を含む色情報を表現する画像データであって、例えば、網点から構成される網点画像データ、規則的に密に並んだ平行線から構成される万線画像データ、または誤差拡散によって作成される画像データを含むものであり、画素配分法・ディザ法および濃度パターン法などの中間調生成方法を用いるもの全てを含むものである。
【0011】
このような面積階調画像データにおいては、例えば領域分離処理を用いて面積階調の画像データであると判別することはできるが、その画素を中心として見た場合にどのような色として認識されるかといった、その画素の見え方を判定することはできない。
【0012】
従って、従来は、画像処理装置の入力画像データに面積階調画像データが含まれている場合に、画像処理において十分な効果を得ることができないという問題が生じていた。
【0013】
即ち、色補正処理などの画像処理を画像データの画素点ごとに行う際に、適切な画像処理を行うことができず、例えば記憶色処理のような色補正処理において、十分な効果を得ることができない。
【0014】
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、入力画像データに含まれている面積階調画像データを適切に画像処理することができる画像処理装置、画像読取装置、画像形成装置、画像処理方法、画像処理プログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体を提供することにある。
【0015】
【課題を解決するための手段】
本発明の画像処理装置は、上記の課題を解決するために、画像処理手段により所定の処理を施すことで入力画像データを出力画像データに変換する画像処理装置において、上記入力画像データに面積階調画像データが含まれているか否かを判定する画像判定手段と、上記画像判定手段によって面積階調画像データを含むと判定された上記入力画像データの色情報を算出する色情報算出手段とを備えていることを特徴としている。
【0016】
ここで、面積階調画像データとは、例えば、網点から構成される網点画像データ、規則的に密に並んだ平行線から構成される万線画像データ、または誤差拡散によって作成される画像データのような、中間調を含む色を表現するためのデータである。例えば、網点画像データの場合には網点の配置の密度を変えることによって、また万線画像データの場合には線の太さを画像の濃淡に応じて変えることによって中間調を含む階調表現を行うことができる。
【0017】
上記の構成によれば、例えば表現しようとする階調に対応する色情報を入力画像データから求めるので、入力画像データが面積階調画像データを含む場合であっても中間調を含む色情報を得ることができる。
【0018】
ここで中間調とは、中間の階調、即ち、面積階調を使用することによりはじめて表現することができる階調のことをいう。
【0019】
このような構成の例としては、画像判定手段としての原稿種別自動判別手段によって網点画像を含む印刷写真と判定された入力画像データから、色情報算出手段によって色情報を求める構成が挙げられる。また他の一例としては、画像形成装置に備えられた画像処理装置において、操作パネルから画像モードとして印刷写真モードが選択される構成がある。この場合には、網点画像を判定する画像判定手段としてのCPU(制御手段)によって、網点画像を含む印刷写真と判定された入力画像データから、色情報算出手段によって色情報を求める。なお、これらの場合には、必ずしも領域分離を行う必要はない。
【0020】
上記の画像処理装置は、入力画像データに基づき、入力画像データに対応する原稿の種別を判別する原稿種別判別手段に、画像判定手段と色情報算出手段とが備えられていることが好ましい。
【0021】
上記の構成によれば、原稿種別判別手段が原稿の種別を判別すると共に、面積階調原稿であるか否かを判別することができる。従って、面積階調原稿である場合には、その色情報を得ることができ、原稿全体に適切な処理を行うことができる。
【0022】
上記の画像処理装置は、画像判定手段が、ユーザによる入力が可能な操作表示部からの入力データに基づいて判定することが好ましい。
【0023】
上記の構成によれば、例えば操作パネルからの入力により、簡単に原稿の種別を判別することができ、入力画像データが面積階調画像データを含む否かも簡単に判別できる。
【0024】
本発明の画像処理装置は、入力画像データから面積階調画像データの領域を分離して抽出する領域分離手段と、領域分離手段によって抽出された面積階調画像データの領域において、画素ごと、複数の画素よりなるブロックごと、または、原稿ごとに(原稿全体に対して)色情報を算出する色情報算出手段とを備えていることを特徴としている。
【0025】
上記の構成によれば、領域分離手段による領域分離処理によって画素毎あるいはブロック単位で、または原稿全体に対して面積階調画像データの領域を抽出することができ、色情報を得ることができる。
【0026】
上記の画像処理装置は、色情報算出手段が、色情報の算出により、面積階調画像データが予め定められた特定色であるか否か、予め定められた濃度であるか否か、または、予め定められた彩度であるか否かの判定を行うことが好ましい。
【0027】
上記の構成によれば、例えば、色情報算出手段の判定結果が、面積階調画像データの領域が肌色などの特定色である、特定濃度である、または、特定彩度であること等を示す場合、入力画像データに対する処理(例えば色補正処理・空間フィルタ処理・階調再現処理等)として適切な方法を選択することにより高画質化を図ることができる。
【0028】
なお、特定色としては、例えば人の肌、空の青、草木の緑等の色であって、元の画像に忠実な色の再現を行うよりも、人間が記憶している色に近い色の再現を好ましく感じるような色である、いわゆる記憶色が挙げられる。
【0029】
上記の画像処理装置は、色情報算出手段の判定結果に基づいて、画像処理手段による入力画像データから出力画像データへの変換のための処理を切り換える制御手段を備えていることが好ましい。
【0030】
上記の構成によれば、面積階調画像領域が特定色であるか否か、特定濃度であるか否か、あるいは特定彩度であるか否かの何れかに基づいて、色補正処理・黒生成下色除去処理・空間フィルタ処理・階調再現処理などの処理内容を切り換えることができる。これにより、入力画像データの特徴に応じて適切な処理を施すことができる。
【0031】
例えば、黒生成下色除去処理においては、面積階調画像領域が特定色である場合、黒生成量を下げるか黒生成を行わないかして、肌色領域の孤立黒ドットを抑制して、粒状感を抑えることができる。
【0032】
また、制御手段は、例えばCPUによって実現することができる。
【0033】
上記の画像処理装置は、画像処理手段が、入力画像データを入力画像データとは異なる表色系の画像データに変換して入力画像データに色補正処理を施す色補正手段であり、制御手段は、色情報算出手段の判定結果に基づいて、画素、または、複数の画素よりなるブロックに対して、あるいは、原稿ごとに、色補正処理を切り換えることが好ましい。
【0034】
上記の構成によれば、面積階調の画素またはブロックであっても、あるいは原稿全体に対しても、最適値もしくは指定した色に変換することができる。具体的には、記憶色処理を施したり、画像編集のような色変換処理を行うことにより、例えば、編集機能をもつ複写機やスキャナドライバ(画像処理装置)において、ユーザの指定した色を変更できる。
【0035】
上記の画像処理装置は、画像処理手段が、入力画像データに空間フィルタ処理を施す空間フィルタ手段であり、制御手段が、色情報算出手段の判定結果に基づいて、画素、または、複数の画素よりなるブロックに対して、あるいは、原稿ごとに、空間フィルタ処理を切り換えることが好ましい。
【0036】
上記の構成によれば、面積階調画像領域において、予め定められた特定色領域、予め定められた特定濃度領域あるいは予め定められた特定彩度領域に対して、あるいは、予め定められた特定色、予め定められた特定濃度あるいは予め定められた特定彩度の面積階調画像領域を含む原稿に対して、最適な空間フィルタ処理を行うことができる。
【0037】
上記の画像処理装置は、画像処理手段が、入力画像データを予め定められる階調数に変換する処理を施す階調再現処理手段であり、制御手段が、色情報算出手段の判定結果に基づいて、画素、または、複数の画素よりなるブロックに対して、あるいは、原稿ごとに、階調再現処理を切り換えることが好ましい。
【0038】
上記の構成によれば、面積階調画像領域において、予め定められた特定色領域、予め定められた特定濃度領域あるいは予め定められた特定彩度領域に対して、最適な階調再現処理を行うことができる。
【0039】
本発明の画像読取装置は、上記記載の画像処理装置を備え、原稿から画像を読み取り、該読み取った画像に所定の処理を施すことを特徴としている。
【0040】
上記の構成によれば、例えば、面積階調画像領域が肌色などの特定色である場合、記憶色処理を施したり、面積階調画像領域の色やユーザが指定する色へ変換することができ、適切な画像処理を行うことができる画像読取装置を提供することができる。
【0041】
本発明の画像形成装置は、上記記載の画像処理装置と、原稿から画像を読み取り、画像処理装置に読み取った画像を入力する画像入力装置と、上記画像処理装置により処理が施された出力画像データに基づいて記録媒体上に画像を形成する画像出力装置とを備えることを特徴としている。
【0042】
上記の構成によれば、例えば、面積階調画像領域が肌色などの特定色である場合、適切な色補正処理・空間フィルタ処理・階調再現処理を施して、高画質の画像を出力する画像形成装置を提供することができる。
【0043】
本発明の画像処理方法は、上記の課題を解決するために、入力画像データに所定の処理を施して出力画像データに変換する画像処理方法において、上記入力画像データに面積階調画像データが含まれるか否かを判定する判定工程と、上記面積階調画像データを含むと判定された上記入力画像データの色情報を算出する算出工程とを含んでいることを特徴としている。
【0044】
上記の方法によれば、例えば表現しようとする階調に対応する色情報を入力画像データから求めるので、入力画像データが面積階調画像データを含む場合であっても中間調を含む色情報を得ることができる。従って、入力画像データに含まれている面積階調画像データを適切に画像処理することができる。
【0045】
また、本発明の画像処理方法は、入力画像データに所定の処理を施して出力画像データに変換する画像処理方法において、上記入力画像データから上記面積階調画像データの領域を分離して抽出する領域分離工程と、抽出された上記面積階調画像データの領域において、画素ごと、複数の画素よりなるブロックごと、または、原稿ごとに(原稿全体に対して)上記色情報を算出する算出工程とを含んでいることを特徴としている。
【0046】
上記の方法によれば、領域分離工程による領域分離処理によって、画素毎あるいはブロック単位、または、原稿全体に対して面積階調画像データの領域を抽出することができ、色情報を得ることができる。
【0047】
上記の画像処理方法は、色情報を算出して、面積階調画像データが、予め定められた特定色であるか否か、予め定められた濃度であるか否か、または、予め定められた彩度であるか否かの判定を行う色情報判定工程を含むことが好ましい。
【0048】
上記の方法によれば、例えば、面積階調画像データの領域が肌色などの特定色、特定濃度、または特定彩度である場合、入力画像データに対する処理(例えば色補正処理・空間フィルタ処理・階調再現処理等)として適切な方法を選択することにより、画像処理方法を適用した画像処理装置において高画質化を図ることができる。
【0049】
上記の画像処理方法は、面積階調画像データの色情報の算出結果に基づいて、入力画像データから出力画像データへ変換するための処理を切り換えることが好ましい。
【0050】
上記の方法によれば、例えば、面積階調画像領域が特定色であるか否か、特定濃度であるか否か、あるいは特定彩度であるか否かの何れかに基づいて、色補正処理・黒生成下色除去処理・空間フィルタ処理・階調再現処理等の処理内容を切り換えることができる。これにより、入力画像データの特徴に応じて適切な処理を施すことができる。
【0051】
本発明の画像処理プログラムは、上記記載の画像処理方法をコンピュータに実行させる。
【0052】
上記の構成によれば、例えば、網点領域が特定色であるか否かを判定して、適切な色補正処理・空間フィルタ処理・中間調処理を施すことができる画像処理方法の画像処理プログラムをコンピュータシステムにロードすることにより、上記画像処理方法をユーザに提供することができる。
【0053】
本発明のコンピュータ読み取り可能な記録媒体は、上記記載の画像処理プログラムを記録している。
【0054】
上記の構成によれば、上記記録媒体に記録されたプログラムをコンピュータシステムにロードすることにより、上記画像処理方法をユーザに提供することができる。
【0055】
【発明の実施の形態】
〔実施の形態1〕
本発明の実施の一形態について図1〜図6、図9、図17に基づいて説明すれば、以下の通りである。
【0056】
図2は、本実施の形態に係るデジタルカラー複写機(画像形成装置)の要部の構成を示す。同図に示すように、本デジタルカラー複写機は、カラー画像処理装置(画像処理装置)1、カラー画像入力装置2、および、カラー画像出力装置3を備えている。カラー画像処理装置1には、カラー画像入力装置2およびカラー画像出力装置3が接続されると共に操作パネル14が接続されている。
【0057】
カラー画像入力装置2は、例えばCCD(Charge Coupled Device)を備えたスキャナ部より構成され、原稿からの反射光像を、RGB(R:赤・G:緑・B:青)のアナログ信号としてCCDにて読み取って、カラー画像処理装置1に入力するものである。
【0058】
カラー画像処理装置1は、原稿から読み取った入力画像データに面積階調画像データが含まれるか否かを判定して、面積階調画像データを含むと判定されたときには入力画像データから色情報を求めるようになっている。
【0059】
以下、カラー画像処理装置1の構成について、図2を用いて説明する。
【0060】
カラー画像処理装置1は、画像処理手段としての、A/D(アナログ/デジタル)変換部4、シェーディング補正部5、原稿種別自動判別部6、入力階調補正部7、領域分離処理部8、色補正部(色補正手段、画像処理手段)9、黒生成下色除去部10、空間フィルタ処理部(空間フィルタ手段、画像処理手段)11、出力階調補正部12、および階調再現処理部(階調再現処理手段、画像処理手段)13から構成されている。
【0061】
上記RGBのアナログ信号(入力画像データ)は、以下に説明するように、カラー画像処理装置1において、A/D変換部4、シェーディング補正部5、原稿種別自動判別部6、入力階調補正部7、領域分離処理部8、色補正部9、黒生成下色除去部10、空間フィルタ処理部11、出力階調補正部12、階調再現処理部13の順で送られ、CMYK(C:シアン・M:マゼンタ・Y:イエロー・K:ブラック)のデジタルカラー信号(CMYK信号、出力画像データ)としてカラー画像出力装置3へ出力される。
【0062】
A/D変換部4は、RGBのアナログ信号をデジタル信号に変換するものである。シェーディング補正部5は、A/D変換部4から送られてきたデジタルのRGB信号に対して、カラー画像入力装置2の照明系、結像系、撮像系で生じた各種の歪みを取り除く処理を施すものである。また、シェーディング補正部5は、RGB信号(RGBの反射率信号)に対して、カラーバランスを整えると同時に、濃度信号などカラー画像処理装置1に採用されている画像処理システムの扱い易い信号に変換する処理を施す。
【0063】
原稿種別自動判別部6は、RGBの濃度信号を補色反転してCMY信号とする。そして、入力された原稿が、文字原稿、印刷写真原稿、印画紙写真であるか、あるいは、それらが混在する文字/印刷写真原稿であるかなどの判定を行う。面積階調画像データを含む(入力された原稿画像が面積階調画像である)か否かを判定すると共に、面積階調画像データにおける色情報を算出する原稿種別自動判別部6の詳細については後述する。
【0064】
入力階調補正部7は、下地の有無を判定して下地濃度の除去を行ったりコントラストなどの画質調整処理を施したりするものである。
【0065】
領域分離処理部8は、入力画像データ中の各画素を文字領域、面積階調画像領域、写真(印画紙写真)領域などの複数の領域の何れかに分離するものである。領域分離処理部8は、分離結果に基づき、画素がどの領域に属しているかを示す領域識別信号Qを、色補正部9、黒生成下色除去部10、空間フィルタ処理部11および階調再現処理部13へと出力する。また、領域分離処理部8は、入力階調補正部7から入力された入力信号をそのまま後段の色補正部9に出力する。
【0066】
色補正部9は、色再現の忠実化実現のために、不要吸収成分を含むCMY色材の分光特性に基づいた色濁りを取り除く処理を行うものである。
【0067】
黒生成下色除去部10は、色補正後のCMYの3色信号から黒(K)信号を生成する黒生成、元のCMY信号から黒生成で得たK信号を差し引いて新たなCMY信号を生成する処理を行うものであって、CMYの3色信号はCMYKの4色信号に変換される。
【0068】
黒生成処理の一例として、スケルトンブラックによる黒生成を行う方法(一般的方法)がある。この方法では、スケルトンカーブの入出力特性をy=f(x)、入力されるデータをC,M,Y,出力されるデータをC´,M´,Y´,K´、UCR(Under Color Removal)率をα(0<α<1)とすると、黒生成下色除去処理は以下の式(1)〜(4)で表わされる。
【0069】
K´={min(C,M,Y)} …(1)
C´=C−αK´ …(2)
M´=M−αK´ …(3)
Y´=Y−αK´ …(4)
空間フィルタ処理部11は、黒生成下色除去部10より入力されるCMYK信号の画像データに対して、領域識別信号Qを基にデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正することによって出力画像のぼやけや粒状性劣化を防ぐように処理するものである。階調再現処理部13も、空間フィルタ処理部11と同様に、CMYK信号の画像データに対して、領域識別信号Qを基に所定の処理を施すものである。
【0070】
この空間フィルタ処理部11においては、例えば、領域分離処理部8にて文字に分離された領域は、特に黒文字或いは色文字の再現性を高めるために、空間フィルタ処理としての鮮鋭強調処理によって、高周波数の強調量が大きくされる。そして、後述する階調再現処理部13において、高域周波数の再現に適した高解像度のスクリーンでの二値化または多値化処理が選択される。
【0071】
また、領域分離処理部8にて面積階調画像領域に分離された領域に関しては、空間フィルタ処理部11において、入力網点成分を除去するためのローパス・フィルタ処理が施される。そして、出力階調補正部12で、濃度信号などの信号をカラー画像出力装置3の特性値である網点面積率に変換する出力階調補正処理を行い、階調再現処理部13へと画像データを出力する。
【0072】
階調再現処理部13では、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理(中間調生成)を施す。領域分離処理部8にて写真に分離された領域に関しては、階調再現性を重視したスクリーンでの二値化または多値化処理が行われる。
【0073】
上述した各処理が施された画像データは、一旦図示しない記憶手段に記憶され、所定のタイミングで読み出されてカラー画像出力装置3に入力される。このカラー画像出力装置3は、画像データを記録媒体(例えば紙等)上に出力するものである。カラー画像出力装置3の例としては、電子写真方式やインクジェット方式を用いたカラー画像出力装置等を挙げることができるが、特に限定されるものではない。
【0074】
なお、以上の処理は不図示のCPU(Central Processing Unit、制御手段)により制御される。
【0075】
以下、読み取られる原稿が印刷写真画像(面積階調画像)であるか否か、あるいは、面積階調画像が含まれているか否かを判定し、面積階調画像の色情報を算出することにより特定色の領域が含まれているか否かを判定する原稿種別自動判別部(原稿種別判別手段)6について説明する。
【0076】
ここで、面積階調画像の画像データ(面積階調画像データ)とは、中間調を含む色情報を表現する画像データであって、例えば、網点から構成される網点画像データ、規則的に密に並んだ平行線から構成される万線画像データ、または誤差拡散によって作成される画像データを含むものである。即ち、画素配分法・ディザ法および濃度パターン法などの中間調生成方法を用いる画像データ全てを含むものである。
【0077】
まず、原稿種別自動判別部6の構成について、図1を用いて説明する。
【0078】
図2に示すように、原稿種別自動判別部6は、判別制御部(画像判定手段)61、色情報算出部(色情報算出手段、入力データ色情報算出手段)62、および、原稿判定部(色情報算出手段、色情報判別手段)63とを備えている。
【0079】
判別制御部61は、RGB信号を補色反転してCMY信号とし、そのCMY信号を入力階調補正部7へと出力すると共に、画像データ(CMY信号)に基づき、入力された原稿の種別(文字原稿、印刷写真原稿(面積階調画像)、印画紙写真であるか、あるいは、それらが混在する文字/印刷写真原稿であるかなど)の判定を行う。
【0080】
色情報算出部62は、判別制御部61による上記判定と並行して、色情報を算出する。
【0081】
原稿判定部63は、原稿画像に、特定色の領域が含まれているか否か(特定色の領域の有無)を判別する。
【0082】
なお、判別制御部61の処理と色情報算出部62の処理とは、図17に示すように、入力画像データを判別制御部61と色情報算出部62とに入力することにより、並列して行ってもかまわない。
【0083】
次に、原稿種別自動判別部6における処理について、図3〜5に示すフローチャートを用いて説明する。なお、後述するステップS(以下、Sと称する)3〜S6およびS8〜S17(判定工程)は判別制御部61が、S7(算出工程、入力データ色情報算出工程)は色情報算出部62が、S18〜S21(算出工程、色情報判別工程)は原稿判定部63が行う処理である。
【0084】
まず、図3に示すように、カラー画像入力装置2において、原稿のプレスキャンが行われる(S1)。このプレスキャンによって得られたRGB信号は、所定の処理が施されて判別制御部61に入力される。判別制御部61は、上述したように、RGBの濃度信号をCMY信号に補色反転することによって、信号変換を行う(S2)。
【0085】
次いで、判別制御部61は、上記補色反転されたCMY信号を用いて、濃度ヒストグラムを作成する(S3)。
【0086】
そして、このヒストグラムから、予め定められる閾値より小さい度数の低度数濃度に属する区分の数を求めると共に、最も度数の大きい(最大度数値(第1の最大度数値)をもつ)濃度区分(第1の最大度数の濃度区分)を求める(S4)。次に、第1の最大度数の濃度区分に隣接する濃度区分以外で最大度数値をもつ第2の最大度数の(第2の最大度数値)を有する)濃度区分を求める(S5)。
【0087】
一方、上記S3〜S5の処理と並行して、画像データを2値化し、注目画素を含む複数の画素よりなるマスクを設定し、主走査方向(スキャナの走査面において走査方向に直交する方向)・副走査方向(スキャナの走査方向と平行な方向)での「0」から「1」、「1」から「0」への変化点数の和を求める(S6)。
【0088】
なお、この変換点数の算出は、例えば主走査方向の変化点数のみを求める構成であってもよく、このような構成を用いることで高速化が可能である。
【0089】
また、上記S3〜S5、S6、後述するS8〜16の処理と並行して、後述する色情報算出処理を行う(S7)。
【0090】
そして、S5・6の後、S4で求めた低度数濃度区分の数と予め定めた第1の閾値との大きさを比較する。低度数濃度区分の数が予め定めた第1の閾値未満の場合にはS9に進む。一方、低度数濃度区分の数が予め定めた第1の閾値以上である場合には、図4のS17に示すように、読み取った原稿は文字原稿であるとする。
【0091】
低度数濃度区分の数が予め定めた第1の閾値未満の場合(S8でNo)、続いて、総画素数に対する第1の最大度数値の割合を計算し、この割合と予め定めた第2の閾値との大きさを比較する(S9)。総画素数に対する第1の最大度数値の割合が予め定めた第2の閾値未満(S9でNo)である場合にはS10に進む。総画素数に対する第1の最大度数値の割合が予め定めた第2の閾値以上である場合(S9でYes)には、図4のS17に示すように、読み取った原稿は文字原稿であるとする。
【0092】
そして、総画素数に対する第1の最大度数値の割合が予め定めた第2の閾値未満である場合、総画素数と(第1の最大度数値−第2の最大度数値)との比を算出し、この比と予め定めた第3の閾値との大きさを比較する(S10)。
【0093】
このとき、上記比が第3の閾値未満である場合(S10でNo)には、図4に示すS11に進む。一方、上記比が予め定めた第3の閾値以上である場合(S10でYes)には、図4に示すS14に進む。
【0094】
S11においては、上述のS6において得られた変化点数の和に応じて、即ち、得られた変化点数の和が予め定めた閾値以上(S11でYes)であれば、読み取った原稿が文字/印刷写真原稿であるとしてフラグFの値をaに設定する(S12)。
【0095】
ここで、印刷写真を含む原稿か印画紙写真を含む原稿かを判別するのに、変化点数の和を用いるのは、例えば面積階調画像の場合には、局所領域における画像信号の変動が大きいからである。また、得られた変化点数の和が予め定めた閾値未満(S11でNo)であれば、読み取った原稿は文字/印画紙写真原稿であるとする(S13)。
【0096】
また、S12においても同様に、得られた変化点数の和が予め定めた閾値以上(S14でYes)であれば、読み取った原稿が印刷写真原稿であるとしてフラグFの値をbに設定する(S15)。また、得られた変化点数の和が予め定めた閾値未満(S14でNo)であれば、読み取った原稿は印画紙写真原稿であるとする(S16)。
【0097】
以上のように、判別制御部61は、読み取った原稿の種別を判別すると共に、面積階調画像データが含まれているか否かを判定する(S8〜S17,判定工程)。
【0098】
ここで、色情報算出部62が行う色情報算出処理(S7)について、図5、図6、図9を用いて説明する。色情報算出部62は、全入力画像データについて色情報算出処理(入力データ色情報算出工程に対応)を行う。
【0099】
図5に示すように、まず、特定色である画素の数Psを0とおく(S31)。続いて、入力された画像データのうちから、例えば図6に示すような複数の画素よりなるブロックを抽出する(S32)。なお、ここでは抽出するブロックとして、注目画素を含む13×7の画素を抽出しているが、これに限るものではなく、その他の大きさであってもよい。
【0100】
そして、ブロック中の注目画素に関する色情報を算出し(S33)、注目画素が特定色であるか否かを判定する(S34)。
【0101】
ここで、特定色とは、特に限定されるものではなく、予め定められるものであればどのようなものでもよい。
【0102】
例えば、人の肌、空の青、草木の緑等の色であって、元の画像に忠実な色の再現を行うよりも、人間が記憶している色に近い色の再現を好ましく感じるような色である記憶色等でもかまわない。この記憶色に対しては、記憶色処理を行うことで、好ましい画像を出力することが可能となる。好ましい色というのは個人差が有るので、通常例えばプリンタなどでは多くの被験者の好ましい色の平均値を最も好ましい再現としている。
【0103】
その後、注目画素が特定色であると判定された場合(S34でYes)には、特定色である画素の数Psの値を一つ増加させる。また、注目画素が特定色でないと判定された場合(S34でNo)には、特定色である画素の数Psの値はそのままにする。
【0104】
そして、画素全てについて判定が終了したか否かを判定し(S36)、画素全てについて判定が終了している場合には、特定色である画素の数Psの全画素数に対する割合と、予め定めた閾値THs(例えば、0.05)との比較を行う(S37)。このとき、特定色である画素の数Psの割合が閾値THs以上である場合にはフラグGの値をcに設定して色情報算出処理を終了する。一方、特定色である画素の数Psの割合が閾値THsより小さい場合には、そのまま色情報算出処理を終了する。
【0105】
また、画素全てについて判定が終了していない場合(S36でNo)は、S32に戻り、主走査方向に1画素ずらせてブロックを抽出しS33〜S35の処理を繰り返す。
【0106】
なお、S37における比較には、画素の数Psの割合ではなく、画素の数Psをそのまま用いてもかまわない。
【0107】
ここで、注目画素が特定色であるか否かを判定する方法(S34)の一例としては、次のようなものがある。
【0108】
まず、色情報の算出として、ブロック内の13×7画素に対して、信号レベルの平均値(Dave)=(Cave,Mave,Yave)を求める。
【0109】
そして、予め定めた閾値Cth1,Cth2,Mth1,Mth2,Yth1,Yth2に応じて、Cth1<Cave<Cth2、かつ、Mth1<Mave<Mth2、かつ、Yth1<Yave<Yth2の場合に、特定色と判定する。それ以外の場合は、非特定色と判定する。
【0110】
また、注目画素が特定色であるか否かを判定する方法(S34)の他の一例としては、次のようなものがある。
【0111】
まず、重み付けフィルタ(図9参照)を用いた、ブロック内の重みづけした信号レベルの平均値(Dwave)=(Cwave,Mwave,Ywave)を求める。
【0112】
そして、予め定めた閾値Cth1,Cth2,Mth1,Mth2,Yth1,Yth2に応じて、Cth1<Cwave<Cth2、かつ、Mth1<Mwave<Mth2、かつ、Yth1<Ywave<Yth2の場合には特定色と判定する。それ以外の場合は、非特定色と判定する。上記閾値の具体的な数値の例として、特定色としての肌色を判定する場合には、(Cth1,Mth1,Yth1)=(45,120,135),(Cth2,Mth2,Yth2)=(30,85,100)のように選ぶことができる。
【0113】
図9に、重み付けフィルタの構成の一例を示す。ここでは、ブロック内の13×7画素に対して用いる重み付けフィルタのうちの中心の5×5画素分のフィルタ係数を示す。残りのフィルタ係数は0であるので省略している。
【0114】
なお、重み付けフィルタとして用いるフィルタは、この図9に示す構成に限るものではなく、その他の構成であってもよい。
【0115】
また、注目画素が特定色であるか否かを判定する方法(S34)のさらに他の一例としては、次のようなものがある。
【0116】
まず、ブロック内の13×7画素に対して、一つ一つの画素について閾値を用いて特定色であるか否か判定する。
【0117】
そして、特定色であると判定された画素の数が予め定められた閾値よりも大きい場合に、特定色と判定する。それ以外の場合は、非特定色と判定する。また、次の注目画素の判定には、別のブロックを選択し、同様に判定を行う。
【0118】
上述したように、判別制御部61で原稿種別の判別処理(判定工程)、色情報算出部62で色情報算出処理(入力データ色情報算出工程)を行った後、これらの処理結果は原稿判定部63に入力される。この原稿判定部63における処理(色情報判別工程)について、図4を用いて説明する。
【0119】
まず、先に設定したフラグFの値がaであるか否かを判別する(S18)。フラグFの値がaである場合にはさらにフラグGの値がcであるか否かを判別する(S20)。一方、フラグFの値がaでない場合には、フラグFの値がbであるか否かを判別する(S19)。フラグFの値がbである場合にはさらにフラグGの値がcであるか否かを判別する(S20)。フラグFの値がbでない場合(S19でNo)には処理を終了する。
【0120】
続いて、S20において、フラグGの値がcである場合には、入力画像データの中に、特定色の領域が含まれているとし(S21)、フラグGの値がcでない場合には処理を終了する。
【0121】
以上のように判定した原稿の種別および特定色の有無に応じて、原稿判定部63は、原稿種別判定信号Pを、原稿種別判定信号Pを入力階調補正部7、領域分離処理部8、色補正部9、黒生成下色除去部10、空間フィルタ処理部11、および、階調再現処理部13へと出力する。即ち、原稿種別判定信号Pには、原稿の種別および特定色の有無の情報が含まれる。
【0122】
この原稿種別判定信号P(原稿種別自動判別部6の判定結果)に応じて、入力階調補正部7は、下地濃度の除去やコントラストなどの画質調整処理を施す。また、領域分離処理部8、色補正部9、黒生成下色除去部10、空間フィルタ処理部11、階調再現処理部13では、原稿種別判定信号Pに基づいて適切な処理な処理が施されるように色補正テーブル・黒生成量・フィルタ係数・階調補正曲線などを選択する。
【0123】
以上では、プレスキャンにより原稿種別を判別する方法について説明したが、プレスキャンは必ずしも必要ではなく、シェーディング補正処理後の画像データを画像メモリに格納しておき、原稿種別の判別処理を行った後、この画像データを読み出して処理を行っても良い。
【0124】
また、上記構成において、原稿種別自動判別部6において面積階調画像で特定色の領域が含まれていると判定された場合、色情報算出部62で肌色を認識する際に、肌色が含まれているブロックの数をカウントするようにしても良い。そして、ブロックの数が予め定めた閾値より大きい場合に、例えば原稿を「網点(面積階調)人物画像」と判定する構成であってもよい。この場合、画像全体に対して色補正処理・空間フィルタ処理および階調再現処理が行われる。
【0125】
なお、デジタルカラー複写機において、カラー画像処理装置1の操作を操作パネル14にて設定する構成であってもよい。
【0126】
この場合、例えば、原稿種別(画像モード)をマニュアルで設定してもよい。即ち、操作パネル14から画像モードがマニュアル入力されると、入力された画像モードは例えばCPUにより識別され、色補正部9・空間フィルタ処理部11・階調再現処理部13の処理を切り換える構成であってもよい。
【0127】
この場合、操作パネル14の構成としては、例えば、液晶ディスプレイなどの表示部と設定ボタンとからなる構成であってもよい。
【0128】
また、色情報算出部62および原稿判定部63は、原稿種別自動判別部6に備えられている構成に限定されるものではない。
【0129】
〔実施の形態2〕
本発明の他の実施の一形態について図2、図6〜図14に基づいて説明すれば、以下の通りである。なお、本実施の形態において、実施の形態1における構成要素と同等の機能を有する構成要素については、同一の符号を付記してその説明を省略する。
【0130】
本実施の形態におけるデジタルカラー複写機(画像形成装置)は、図2に示す実施の形態1のデジタルカラー複写機の構成と原稿種別自動判別部6および領域分離処理部8以外は同じ構成となっている。本実施の形態におけるデジタルカラー複写機における画像処理装置は、原稿種別自動判別部6を備えておらず、領域分離処理部8において上述した原稿種別判別処理(判定工程に対応)および色情報算出処理(算出工程に対応)を行う。
【0131】
また、本実施の形態においては、原稿種別自動判別部6を備えていないので、RGB信号はそのまま(補色反転されずに)入力階調補正部7・領域分離処理部8・色補正部9に入力される。この間においては、信号の形態が異なるのみで処理内容は実施の形態1と同様である。
【0132】
領域分離処理部8は、図7に示すように、分離制御部(画像判定手段、領域分離手段)81、色情報算出部(色情報算出手段)82、および、画像領域判定部(色情報算出手段)83とを備えている。
【0133】
分離制御部81は、入力画像データ中の各画素を文字領域、面積階調画像領域、写真領域などの複数の領域の何れかに分離すると共に、入力階調補正部7から入力された入力信号をそのまま後段の色補正部(色補正手段)9に出力するものである。
【0134】
色情報算出部82は、分離制御部81により面積階調画像データを含むと判定された入力画像データから色情報を算出する。
【0135】
画像領域判定部83は、原稿画像に、特定色の領域が含まれているか否か(特定色の領域の有無)を判別する。
【0136】
以下、従来より用いられている領域分離処理方法にて面積階調画像領域を分離して注目画素が特定色であるか否かを判定する方法について、図8を用いて説明する。ここで、領域分離処理方法としては、例えば非特許文献1に記載の方法を用いることができる。
【0137】
まず、画像データ中から、例えば図6に示すような13×7画素のブロックを抽出し、ブロック内の画素の各色成分ごとの信号レベルの平均値(Dave)=(Rave,Gave,Bave)を求める(S41)。なお、このブロックのサイズは図6に示すような13×7画素に限るものではない。
【0138】
次に、ブロック内の各画素の最大画素信号レベル(Dmax)、最小画素信号レベル(Dmin)を求める(S42)。
【0139】
その後、S41にて求めた平均値(Dave)を用いてブロック内の各画素を2値化する。そして、2値化されたデータを用いて、主走査、副走査方向における、それぞれ0から1への変化点数、1から0への変化点数を求め、それぞれ、KH、KVとする(S43)。
【0140】
なお、上記S41〜S43は、分離制御部81において行われる。
【0141】
続いて、以上のように求めたDave,Dmax,Dmin,KH,KVに対して、分離制御部81は、予め定めた閾値TH,TV,B1,B2を用いて、以下に示す条件1を満たすか否かの判定を行う(S44)。ここで、条件1は、Dmax−Dave>B1、かつ、Dave−Dmin>B2、かつ、KH>TH、かつ、KV>TVで与えられる。
【0142】
ここで、上記条件1が、入力画像データの色成分であるRGBのうち、少なくとも1つの成分で成り立つ場合(S44でYes)には、分離制御部81において、注目画素は面積階調画像領域であると判定される(S45)。これは、面積階調画像領域において、小領域における画像信号の変動が大きいこと、および、背景に比べて濃度が高いことを利用して、面積階調画像領域を識別するものである。即ち、KH、KVを用いた判定は、変動の大きさの判定に相当し、Dmax,Dmin,Daveを用いた判定は、背景との誤判定を防ぐのものである。
【0143】
また、上記領域判定(S44)については、上記条件1を用いた方法に限定されるものではなく、例えば、以下に示す方法を用いてもかまわない。
【0144】
例えば、平均値(Dave)の代わりに、例えば図9に示すような重み付けフィルタを用いて計算した重み付けした平均値(Dwave)を利用して判定を行ってもよい。即ち、上記条件1のかわりに条件1´として、Dmax−Dwave>B1、かつ、Dwave−Dmin>B2、かつ、KH>TH、かつ、KV>TVによって判定を行ってもよい。
【0145】
なお、この図9は、上述のように、ブロック内の13×7画素に対して用いる重み付けフィルタのうちの中心の5×5画素分の要素を示すものであり、残りの要素は0であるので省略している。
【0146】
このように、重み付けした平均値を用いれば、面積階調画像の境界付近においても、即ち、例えば判定するブロックが面積階調画像と非面積階調画像との境界を含んでいるような場合であっても、正確に領域分離を行うことができる。
【0147】
また、続いて、S44で面積階調画像領域であると判定された領域(S45)において、注目画素が特定色であるか否かの判定を行うための色情報の算出を色情報算出部82(色情報算出手段)が行う。色情報としては、例えば、S41にて求めた各信号の平均値(Rave,Gave,Bave)を用いることができる。
【0148】
画像領域判定部83は、上記色情報を用いて注目画素が特定色であるか否かの判定を行う。例えば上記各信号の平均値(Rave,Gave,Bave)が、予め定めた閾値Rth1,Rth2,Gth1,Gth2,Bth1,Bth2に対して、以下の条件2を満たすか否かを判定することによって行う。ここで、条件2は、Rth1<Rave<Rth2、かつ、Gth1<Gave<Gth2、かつ、Bth1<Bave<Bth2で与えられる(S46)。
【0149】
ここで、条件2が満たされている場合は、注目画素は特定色であると判定し、処理を終了する(S47)。一方、条件2が満たされていない場合は、注目画素は特定色ではないとして、処理を終了する(S48)。
【0150】
なお、上記閾値の具体的な数値の例としては、特定色としての肌色を判定する場合、実施の形態1で示した値を反転した値(Rth1, Gth1, Bth1)=(210,135,120),(Rth2, Gth2, Bth2)=(225,170,155)を用いることができる。
【0151】
一方、上記条件1が、入力画像データの色成分であるRGBのうちいずれにおいても成り立たない場合(S44でNo)には、その非面積階調画像領域が文字領域であるか否かを判定する。この判定は、以下の条件3を満たすかどうか判定することによって行われる(S49)。
【0152】
即ち、S49では、S42にて求めた最大画素信号レベル(Dmax)と最小画素信号レベル(Dmin)との差分(Dsub)を求めて、Dmax,Dmin,Dsubを予め定めた閾値PA,PB,PCと比較する。ここで、条件3は、Dmax>PA、または、Dmin<PB、または、Dsub>PCで与えられる。
【0153】
この条件3が満たされた場合、注目画素は文字領域であると判定し、処理を終了する(S50)。即ち、上記条件3が入力画像データの色成分であるRGBのうち少なくとも1つで成り立つ場合には、文字領域となる。一方、条件3が満たされない場合には、注目画素は印画紙写真領域と判定し、処理を終了する(S51)。
【0154】
なお、上記S47・S48は画像領域判定部83において、S49〜51は分離制御部81において行われる。
【0155】
また、この条件3を用いた判定(S49)は、文字領域では、最大信号レベルと最小信号レベルの差が大きく、濃度も高いと考えられることを利用した、文字領域の識別である。また、上記領域分離処理は、画素毎に領域判定を行っても良く、あるいは、複数の画素よりなるブロックに対して判定するようにしても良い。
【0156】
また、上記における特定色の判定(S46)は、以下の方法で行うものであってもよい。
【0157】
即ち、面積階調画像領域であると判定されたブロック内の画素全てに対して、画素ごとに特定色判定を行い、特定色であると判定された画素の数が判定閾値より多い場合に、注目画素を特定色領域と判定する。各画素の特定色判定は、上述の条件2において各信号の平均値(Rave,Gave,Bave)の代わりにその画素の値RGBを用いればよい。
【0158】
なお、S46において判定するのは、色相・明度・彩度からなる色(特定色)に限定されるものではなく、例えば、予め設定された特定の濃度や彩度であるか否かであってもかまわない。
【0159】
即ち、注目画素が、特定の濃度であるか否かの判定も、同様にS46〜S48にて行ってもかまわない。この場合、例えば、ハイライトであるかの否かの判定について説明すると、S41にて求めた各信号の平均値(Rave,Gave,Bave)が、予め定めた閾値Rth3,Gth3,Bth3に対して、以下の条件2を満たすか否かを判定することによって行う。S46で用いる条件2は、Rth3<Rave、かつ、Gth3<Gave、かつ、Bth3<Baveとなる。また、具体的な数値の例としては、Rth3=Gth3=Bth3=220に設定する。
【0160】
また、注目画素が、特定の彩度であるか否かの判定も、同様にS46〜S48にて行ってもかまわない。
【0161】
この場合、例えば、低彩度であるかの否かの判定について説明すると、S46で用いる条件2は、MAX(Rave,Gave,Bave)−MIN(Rave,Gave,Bave)<THcとなる。このとき、色情報算出部82がMAX(Rave,Gave,Bave)、MIN(Rave,Gave,Bave)および両者差分値を算出する。
【0162】
こうして、領域分離処理部8は、以上に説明したS41〜S51に示す領域分離処理によって得た領域識別信号Qを出力する。
【0163】
また、領域分離処理部8として、入力画像データを分離制御部81と色情報算出部82とに入力することにより並列して処理を行い、画像領域判定部83で注目画素の領域判定処理を行うようにしてもかまわない。この場合、分離制御部81では、入力画像データ中の各画素を文字領域、面積階調画像領域、写真領域などの複数の領域の何れかに分離するための特徴量の抽出が行われ(図8のS41〜S43)、色情報算出部82で、注目画素が特定色であるか否かの判定が行われる(図8のS46)。
【0164】
そして、画像領域判定部83では、注目画素が文字領域・面積階調画像領域・印画紙写真領域の何れに属するのかが判定され(図8のS44・S45・S49〜S51)、面積階調画像領域と判定された場合は、さらに色情報算出部82の結果を参照して特定色であるか否かの判定が行われる(S47・S48)。
【0165】
次に、面積階調画像領域であり特定色であると判断された領域に対する処理方法について説明する。
【0166】
まず、色補正部9における色補正処理について、図10を用いて説明する。
【0167】
上述のように図8に基づいて説明したS41〜S51に相当する領域分離処理・色情報算出処理を行った(S61)後、CPU(制御手段)は、入力された領域識別信号Qに応じて、その画素が面積階調画像領域に属するか否かを判定する(S62)。
【0168】
このとき、その画素が面積階調画像領域に属する場合には、その画素が特定色か否かを、領域識別信号Qにより判定する(S63(色情報判定工程))。そして、その画素が特定色である場合には記憶色処理を行う(S64)。また、S63でその画素が面積階調画像領域に属さない場合、および、S64で特定色でない場合には、デフォルトの色補正処理(S65)を行う。
【0169】
これらの処理(S64・65)を行うと、全ての画素の処理が終了したか否かを判定し(S66)、終了している場合には処理を終了し、終了していない場合にはS62まで戻る。
【0170】
ここで、色補正処理する画素が面積階調画像領域に属する特定色の画素である場合に行う記憶色処理(S64)の一例として、マトリクス方式による色補正処理を説明する。
【0171】
このマトリクス方式においては、次式(5)のように、入力信号RGB(Ri,Gi,Bi)から色補正した出力信号CMY(Cbi,Mbi,Ybi)への変換を、行列演算を用いて実現する。
【0172】
【数1】
【0173】
ここで、この特定色のための色記憶処理に用いる変換マトリクスaijなどは、例えば以下のように定めることができる。
【0174】
即ち、例えば記憶色としての肌色がより明るく好ましく再現されるようなマトリクスを求めるためには、記憶色処理を行いたいカラーパッチ(Cai,Mai,Yai)[i=1,2…,n]を出力する。その後、出力したカラーパッチをスキャンして(Ri,Gi,Bi)を得る。そして、それぞれカラーパッチに対応する好ましい再現値を(Cbi,Mbi,Ybi)とする。全データセット(Ri,Gi,Bi)と(Cbi,Mbi,Ybi)とを用いて、これらの関係を満たす定数a11〜a33、b1〜b3を最小二乗法で求める。より精度良く色変換する場合には、RGBの2次以上のより高次の項を含めればよい。
【0175】
次に、空間フィルタ処理部11における空間フィルタ処理について、図11に基づいて説明する。
【0176】
S71・72においては、図10に示すS62・S63と同様、領域識別信号Qに応じて、その画素が面積階調画像領域に属する特定色の画素であるか否かを判定する。
【0177】
そして、画素が面積階調画像領域に属する特定色の画素である場合(S72でYes)には、強い平滑化処理(S73)を行う。即ち、例えば図9に示すような重み付けフィルタを用いて空間フィルタ処理を行う。これにより、周りの画素の情報をも取り込んで周りとの差を小さくすれば、より粒状感を抑えた自然な画像を再現することができる。
【0178】
なお、この図9は、ブロック内の13×7画素に対して用いる重み付けフィルタのうちの中心の5×5画素分の要素を示すものであり、残りの要素は0であるので省略している。
【0179】
一方、S71において、面積階調画像領域でない場合は、領域識別信号Qに応じたフィルタ処理が行われる(S75)。また、S72において特定色ではないと判別された画素については、デフォルトのフィルタ(係数)を用いて空間フィルタ処理が行われる(S74)。ここで、このデフォルトのフィルタとしては、例えば上述の図12に示すような、図9に示すフィルタよりも平滑度合いの弱いフィルタを用いることができる。
【0180】
以上の処理の後に、全ての画素の処理が終了したか否かを判定し(S76)、終了していない場合にはS71まで戻り、終了した場合には出力データを出力階調補正部12へと出力する。
【0181】
次に階調再現処理部13における階調再現(中間調)処理について、図13に基づいて説明する。
【0182】
S81・82においては、図10に示すS62・S63と同様、領域識別信号Qに応じて、その画素が面積階調画像領域に属する特定色の画素であるかを判定する。
【0183】
そして、画素が面積階調画像領域に属する特定色の画素である場合(S82でYes)には、大きいマトリクスを用いた誤差拡散処理を行う(S83)。
【0184】
ここで、この誤差拡散処理とは、入力画像データを2値や多値の量子化された値(出力階調数)で表す中間調処理方法の一つである。誤差拡散処理では、まず、入力画像データI’xyに拡散誤差exyが加算される。この拡散誤差が加算された画像データ(以下、入力画像データ)Ixyは、予め定められる閾値と比較され量子化される。
【0185】
例えば、2値化の場合、閾値は127、量子化値(出力画像データ)Oxyは0、255となる。即ち、画像データ(I´xy+exy)が閾値127以下ならば「0」、閾値127より大きければ「255」が出力される。ここでは、画像データ(I´xy+exy)が閾値127より大きいとし、出力画像データは「255」となる。
【0186】
そして、量子化値と画像データとの誤差ExyをExy=I´xy−Oxyにより求める。
【0187】
このようにして求められた誤差Exyは予め定められる拡散係数に基づいて、まだ処理が施されていない画素に2次元的に拡散される。
【0188】
ここで、図14に、特定色の場合の拡散係数aij(誤差拡散マトリクス)のマスクの一例を示す。なお、誤差拡散は通常、左側の画素から順に処理を行う。また、図14中「*」は現在、処理を行っている画素(注目画素)である。斜線を施した画素は、すでに処理が終わった画素である。この場合、注目画素の右隣りの2画素および注目画素の下の2ライン(各ライン5画素)に誤差を拡散する。各画素に付されている数値は拡散される誤差の大きさを表しており、注目画素に近い画素ほど多くの誤差が拡散され離れるに従い小さくなる。なお、拡散される誤差の値は、拡散係数の比率(aij/Σaij)に誤差を掛けた値、即ち、(1/Σaij)aijEx+1,y+1により計算される。
【0189】
このように、未処理の画素には処理が施された画素の誤差が順次蓄積されていく。即ち、誤差拡散では、量子化によって生じた誤差はフィードバックされるため、濃度は保存されることとなる。
【0190】
この誤差拡散処理においては、大きな誤差拡散マトリクスを用いると、多くの画素に誤差が拡散されるため誤差拡散の分散は小さくなり、滑らかな画像(階調性が良い画像)を得ることができる。この場合、分解能は下がるが、例えば人物画の肌色領域などには高解像度は必要ないため、特定色(肌色)の領域には、上述のように大きな誤差拡散マトリクスを使用する。また、例えば組織的ディザ法による中間調の場合には、マトリクスのサイズをより大きくして、より広い範囲まで誤差を拡散して、なめらかな階調を得る構成であってもよい。あるいは、組織的ディザ法、万線などの、面積階調の画像データの方式に応じて、マトリクス切り換えるようにしてもよい。
【0191】
一方、S81において、面積階調画像領域でない場合は、領域識別信号に応じた誤差拡散処理が行われる(S85)。また、S82において、特定色ではないと判別された画素については、デフォルトのマトリクスを用いて誤差拡散処理を行う(S84)。
【0192】
このデフォルトの拡散マトリクスは、例えば、次式(6)のように表される。
【0193】
【数2】
【0194】
以上の処理の後に、全ての画素の処理が終了したか否かを判定し(S86)、終了していない場合にはS81まで戻り、終了した場合には出力画像データをカラー画像出力装置3に出力する。
【0195】
なお、本実施の形態では、原稿種別自動判別部6(実施の形態1参照)を備えないで領域分離処理部8のみを備える構成を例として説明したが、原稿種別自動判別部6と領域分離処理部8との両方を備えるようにしてもよい。
【0196】
この場合、例えば、原稿種別自動判別部6にて原稿種別の判別を行い、その結果に基づいて領域分離処理を行う際のパラメータを変更する。そして、領域分離処理部8にて、面積階調画像領域が含まれているか否かおよび特定色であるか否か否かの判定をするように構成すればよい。
【0197】
またあるいは、原稿種別自動判別部6にて、原稿に面積階調画像が含まれているか否かおよび特定色であるか否かを判定し、原稿種別判定信号Pに基づいて、上記各処理を原稿全体に対して行ってもよい。
【0198】
また、本実施の形態においては、ブロックとして13×7の領域を共通して用いる構成について説明したが、本発明はこれに限るものではなく、例えば原稿種別判定と領域分離処理とで異なるサイズのブロックを用いる構成であってもよい。
【0199】
さらに、色情報算出部82および画像領域判定部83は、領域分離処理部8に備えられている構成に限定されるものではない。
【0200】
〔実施の形態3〕
本発明のさらに他の実施の一形態について図2、図15および図16に基づいて説明すれば、以下の通りである。なお、本実施の形態において、実施の形態1における構成要素と同等の機能を有する構成要素については、同一の符号を付記してその説明を省略する。
【0201】
図15は、スキャナ(画像読取装置)の要部の構成を示す図である。スキャナは、画像処理部15とカラー画像入力装置2とからなり、コンピュータ16に接続される。カラー画像入力装置2は、スキャナの読み取り部であり、例えば、CCD(Charge Coupled Device)や光源などの機構部である。
【0202】
本実施の形態においては、以下に説明するように、図15に示す画像処理部15と、図16に示すコンピュータ16内部のプリンタドライバ17との組み合わせによって、上述のカラー画像処理装置1(図2参照)と同様の機能を発揮させる。
【0203】
即ち、スキャナ15から入力された画像データに対し、面積階調画像領域の判別および特定色の判定処理を行うようにした構成について、以下に説明する。この場合、色補正処理・空間フィルタ処理・中間調処理をプリンタドライバ17として実現する。
【0204】
本実施形態のスキャナ15は、図15に示すように、A/D変換部4、シェーディング補正部5、原稿種別自動判別部6、入力階調補正部7、および、領域分離処理部8を備えている。スキャナ15の読み込み条件や動作は、コンピュータ16にて設定され制御される。スキャナ15により読み取られた画像データは、実施の形態1・2と同様、原稿種別自動判別部6または領域分離処理部8により、原稿画像に面積階調画像領域が含まれているか否か、および、面積階調画像領域が特定色であるか否かの判定がなされ、その結果が、読み込まれたRGB信号と共に図16に示すコンピュータ16に送られる。
【0205】
図16に示すように、コンピュータ16は、プリンタドライバ17、通信ポートドライバ19、および通信ポート20を備えている。
【0206】
プリンタドライバ17は、色補正部9、空間フィルタ処理部11、階調再現処理部13、および、プリンタ言語翻訳部18を備えており、色補正部9は黒生成下色除去処理も行う。
【0207】
スキャナ15にて読み込まれた画像データは、コンピュータ16で必要に応じてアプリケーションソフトウェアを用いて編集され、原稿種別自動判別部6による原稿種別の判別結果あるいは領域分離処理部8において生成された領域識別信号と共にプリンタドライバ17に入力される。
【0208】
プリンタドライバ17では、画像データに対して、色補正部9、空間フィルタ処理部11、階調再現処理部13によって上述した処理が施され、プリンタ言語翻訳部18にてプリンタ言語に変換される。そして、通信ポートドライバ・通信ポート(RS232C・LAN等)を介して電子写真方式やインクジェット方式のプリンタ等であるカラー画像出力装置3に入力される。プリンタは、プリンタ機能の他にコピー機能およびファックス機能を有するデジタル複合機であっても良い。
【0209】
あるいは、スキャナ15において、原稿種別の判別や領域分離処理は行わず、これらの処理をコンピュータ16にてアプリケーションソフトウェアとして実現するようにしても良い。
【0210】
本発明はコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体に、画像処理方法を記録するものとすることもできる。この結果、画像処理方法を行うプログラムを記録した記録媒体を持ち運び自在に提供することができる。
【0211】
なお、本実施の形態では、この記録媒体としては、マイクロコンピュータで処理が行われるために図示していないメモリ、例えばROM(Read Only Memory)のようなものそのものがプログラムメディアであっても良いし、また、図示していないが外部記憶装置としてプログラム読み取り装置が設けられ、そこに記録媒体を挿入することで読み取り可能なプログラムメディアであっても良い。
【0212】
いずれの場合においても、格納されているプログラムはマイクロプロセッサがアクセスして実行させる構成であっても良いし、あるいは、いずれの場合もプログラムを読み出し、読み出されたプログラムは、マイクロコンピュータの図示されていないプログラム記憶エリアにダウンロードされて、そのプログラムが実行される方式であってもよい。このダウンロード用のプログラムは予め本体装置に格納されているものとする。
【0213】
ここで、上記プログラムメディアは、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスクやハードディスク等の磁気ディスクやCD−ROM(Compact Disc Read Only Memory)/MO(Magneto Optical)/MD(Mini−Disc)/DVD(Digital Versatile Disc)等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等による半導体メモリを含めた固定的にプログラムを担持する媒体であっても良い。
【0214】
また、本実施の形態においては、インターネットを含む通信ネットワークを接続可能なシステム構成であることから、通信ネットワークからプログラムをダウンロードするように流動的にプログラムを担持する媒体であっても良い。なお、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであっても良い。
【0215】
上記記録媒体は、デジタルカラー画像形成装置やコンピュータシステムに備えられるプログラム読み取り装置により読み取られることで上述した画像処理方法が実行される。
【0216】
なお、コンピュータシステムは、フラットベッドスキャナ・フィルムスキャナ・デジタルカメラなどの画像入力装置、所定のプログラムがロードされることにより上記画像処理方法など様々な処理が行われるコンピュータ、コンピュータの処理結果を表示するCRTディスプレイ・液晶ディスプレイなどの画像表示装置およびコンピュータの処理結果を紙などに出力するプリンタより構成される。さらには、ネットワークを介してサーバーなどに接続するための通信手段としてのネットワークカードやモデムなどが備えられる。
【0217】
また、本発明は上述した各実施の形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施の形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。
【0218】
【発明の効果】
本発明の画像処理装置は、以上のように、入力画像データに面積階調画像データが含まれているか否かを判定する画像判定手段と、画像判定手段によって面積階調画像データを含むと判定された入力画像データの色情報を算出する色情報算出手段とを備えている構成である。
【0219】
これにより、表現しようとする階調に対応する色情報を入力画像データから求めるので、入力画像データが面積階調画像データを含む場合であっても中間調を含む色情報を得ることができるといった効果を奏する。
【0220】
本発明の画像処理装置は、入力画像データに基づき、入力画像データに対応する原稿の種別を判別する原稿種別判別手段に、画像判定手段と色情報算出手段とが備えられている構成である。
【0221】
これにより、原稿種別判別手段が原稿の種別を判別すると共に、面積階調原稿であるか否かを判別することができる。従って、面積階調原稿である場合には、その色情報を得ることができ、原稿全体に適切な処理を行うことができるといった効果を奏する。
【0222】
本発明の画像処理装置は、画像判定手段が、ユーザによる入力が可能な操作表示部からの入力データに基づいて判定する構成である。
【0223】
これにより、例えば操作パネル(操作表示部)からの入力により、簡単に原稿の種別を判別することができ、入力画像データが面積階調画像データを含む否かも簡単に判別できるといった効果を奏する。
【0224】
本発明の画像処理装置は、入力画像データから面積階調画像データの領域を分離して抽出する領域分離手段と、領域分離手段によって抽出された面積階調画像データの領域において、画素ごと、または、複数の画素よりなるブロックごとに色情報を算出する色情報算出手段とを備えている構成である。
【0225】
これにより、領域分離手段による領域分離処理によって画素毎あるいはブロック単位で面積階調画像データの領域を抽出することができ、色情報を得ることができるといった効果を奏する。
【0226】
本発明の画像処理装置は、色情報算出手段が、色情報の算出により、面積階調画像データが予め定められた特定色であるか否か、予め定められた濃度であるか否か、または、予め定められた彩度であるか否かの判定を行う構成である。
【0227】
これにより、例えば、色情報算出手段の判定結果が、面積階調画像データの領域が肌色などの特定色である、特定濃度である、または、特定彩度であること等を示す場合、入力画像データに対する処理(例えば色補正処理・空間フィルタ処理・階調再現処理等)として適切な方法を選択することにより高画質化を図ることができるといった効果を奏する。
【0228】
本発明の画像処理装置は、色情報算出手段の判定結果に基づいて、画像処理手段による入力画像データから出力画像データへの変換のための処理を切り換える制御手段を備えている構成である。
【0229】
これにより、面積階調画像領域が特定色であるか否か、特定濃度であるか否か、あるいは特定彩度であるか否かの何れかに基づいて、色補正処理・黒生成下色除去処理・空間フィルタ処理・階調再現処理などの処理内容を切り換えることができる。これにより、入力画像データの特徴に応じて適切な処理を施すことができるといった効果を奏する。
【0230】
本発明の画像処理装置は、画像処理手段が、入力画像データを入力画像データとは異なる表色系の画像データに変換して入力画像データに色補正処理を施す色補正手段であり、制御手段は、色情報算出手段の判定結果に基づいて、画素、または、複数の画素よりなるブロックに対して、あるいは、原稿ごとに、色補正処理を切り換える構成である。
【0231】
これにより、面積階調の画素またはブロックであっても、あるいは原稿全体に対しても、最適値もしくは指定した色に変換することができるといった効果を奏する。
【0232】
本発明の画像処理装置は、画像処理手段が、入力画像データに空間フィルタ処理を施す空間フィルタ手段であり、制御手段が、色情報算出手段の判定結果に基づいて、画素、または、複数の画素よりなるブロックに対して、あるいは、原稿ごとに、空間フィルタ処理を切り換える構成である。
【0233】
これにより、面積階調画像領域において、予め定められた特定色領域、予め定められた特定濃度領域あるいは予め定められた特定彩度領域等に対して、最適な空間フィルタ処理を行うことができるといった効果を奏する。
【0234】
本発明の画像処理装置は、画像処理手段が、入力画像データを予め定められる階調数に変換する処理を施す階調再現処理手段であり、制御手段が、色情報算出手段の判定結果に基づいて、画素、または、複数の画素よりなるブロックに対して、あるいは、原稿ごとに、階調再現処理を切り換える構成である。
【0235】
これにより、面積階調画像領域において、予め定められた特定色領域、予め定められた特定濃度領域あるいは予め定められた特定彩度領域等に対して、最適な階調再現処理を行うことができるといった効果を奏する。
【0236】
本発明の画像読取装置は、上記記載の画像処理装置を備え、原稿から画像を読み取り、該読み取った画像に所定の処理を施す構成である。
【0237】
これにより、例えば、面積階調画像領域が肌色などの特定色である場合、記憶色処理を施したり、面積階調画像領域の色やユーザが指定する色へ変換することができ、適切な画像処理を行うことができる画像読取装置を提供することができるといった効果を奏する。
【0238】
本発明の画像形成装置は、上記記載の画像処理装置と、原稿から画像を読み取り、画像処理装置に読み取った画像を入力する画像入力装置と、画像処理装置により処理が施された出力画像データに基づいて記録媒体上に画像を形成する画像出力装置とを備える構成である。
【0239】
これにより、例えば、面積階調画像領域が肌色などの特定色である場合、適切な色補正処理・空間フィルタ処理・階調再現処理を施して、高画質の画像を出力する画像形成装置を提供することができるといった効果を奏する。
【0240】
本発明の画像処理方法は、入力画像データに面積階調画像データが含まれるか否かを判定する判定工程と、面積階調画像データを含むと判定された入力画像データの色情報を算出する算出工程とを含んでいる構成である。
【0241】
これにより、例えば表現しようとする階調に対応する色情報を入力画像データから求めるので、入力画像データが面積階調画像データを含む場合であっても中間調を含む色情報を得ることができる。従って、入力画像データに含まれている面積階調画像データを適切に画像処理することができるといった効果を奏する。
【0242】
本発明の画像処理方法は、入力画像データから面積階調画像データの領域を分離して抽出する領域分離工程と、抽出された面積階調画像データの領域において、画素ごと、複数の画素よりなるブロックごと、または、原稿ごとに上記色情報を算出する算出工程とを含んでいる構成である。
【0243】
これにより、領域分離工程による領域分離処理によって、画素毎あるいはブロック単位で、または原稿ごとに、面積階調画像データの領域を抽出することができ、色情報を得ることができるといった効果を奏する。
【0244】
本発明の画像処理方法は、色情報を算出して、面積階調画像データが、予め定められた特定色であるか否か、予め定められた濃度であるか否か、または、予め定められた彩度であるか否かの判定を行う色情報判定工程を含む構成である。
【0245】
これにより、例えば、面積階調画像データの領域が肌色などの特定色、特定濃度、または特定彩度である場合、入力画像データに対する処理(例えば色補正処理・空間フィルタ処理・階調再現処理等)として適切な方法を選択することにより、画像処理方法を適用した画像処理装置において高画質化を図ることができるといった効果を奏する。
【0246】
本発明の画像処理方法は、面積階調画像データの色情報の算出結果に基づいて、入力画像データから出力画像データへ変換するための処理を切り換える構成である。
【0247】
これにより、例えば、面積階調画像領域が特定色であるか否か、特定濃度であるか否か、あるいは特定彩度であるか否かの何れかに基づいて、色補正処理・黒生成下色除去処理・空間フィルタ処理・階調再現処理等の処理内容を切り換えることができる。従って、入力画像データの特徴に応じて適切な処理を施すことができるといった効果を奏する。
【0248】
本発明の画像処理プログラムは、上記記載の画像処理方法をコンピュータに実行させる構成である。
【0249】
これにより、例えば、網点領域が特定色であるか否かを判定して、適切な色補正処理・空間フィルタ処理・中間調処理を施すことができる画像処理方法の画像処理プログラムをコンピュータシステムにロードすることにより、上記画像処理方法をユーザに提供することができるといった効果を奏する。
【0250】
本発明のコンピュータ読み取り可能な記録媒体は、上記記載の画像処理プログラムを記録した構成である。
【0251】
これにより、記録媒体に記録されたプログラムをコンピュータシステムにロードすることによって、上記画像処理方法をユーザに提供することができるといった効果を奏する。
【図面の簡単な説明】
【図1】本発明の実施の一形態に係る画像処理装置における原稿種別自動判別部の要部の構成を示すブロック図である。
【図2】上記画像処理装置を備えた画像形成装置の構成を示す図である。
【図3】原稿種別の判定処理の一部を示すフローチャートである。
【図4】原稿種別の判定処理のうち図3に示すものの残りの一部と特定色の領域の有無の判定処理とを示すフローチャートである。
【図5】色情報算出処理の一例を示すフローチャートである。
【図6】複数の画素よりなるブロックの構成を示す図である。
【図7】本発明の実施の他の一形態に係る画像処理装置の構成を示す図である。
【図8】図7に示す画像処理装置において、面積階調画像領域を分離し注目画素が特定色であるか否かを判定する方法の一例を示すフローチャートである。
【図9】重み付けフィルタの構成の一例を示す図である。
【図10】色補正部における色補正処理の一例を示すフローチャートである。
【図11】空間フィルタ処理部における空間フィルタ処理の一例を示すフローチャートである。
【図12】平滑度合いの弱い重み付けフィルタの構成の一例を示す図である。
【図13】階調再現処理部における階調再現(中間調)処理の一例を示すフローチャートである。
【図14】誤差拡散マトリクスの構成を示す図である。
【図15】本発明の実施のさらに他の一形態に係る画像読取装置の要部の構成を示す図である。
【図16】図15に示す画像読取装置に接続されるコンピュータの要部の構成を示す図である。
【図17】判別制御部と色情報算出部とが並行して処理を行う場合の原稿種別自動判別部の要部の構成を示すブロック図である。
【符号の説明】
1 カラー画像処理装置(画像処理装置)
2 カラー画像入力装置
3 カラー画像出力装置
6 原稿種別自動判別部(原稿種別判別手段)
7 入力階調補正部
8 領域分離処理部
9 色補正部(色補正手段、画像処理手段)
10 黒生成下色除去部(画像処理手段)
11 空間フィルタ処理部(空間フィルタ手段、画像処理手段)
12 出力階調補正部
13 階調再現処理部(階調再現処理手段、画像処理手段)
14 操作パネル(操作表示部)
15 スキャナ(画像読取装置)
61 判別制御部(画像判定手段)
62 色情報算出部(色情報算出手段、入力データ色情報算出手段)
63 原稿判定部(色情報算出手段、色情報判別手段)
81 分離制御部(画像判定手段、領域分離手段)
82 色情報算出部(色情報算出手段)
83 画像領域判定部(色情報算出手段)
P 原稿種別判定信号
Q 領域識別信号[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus, an image reading apparatus, an image forming apparatus, an image processing method, an image processing program, and a computer that stores the image processing apparatus that performs appropriate processing on area gradation image data included in image data. It relates to a readable recording medium.
[0002]
[Prior art]
Documents read from an image input device such as a scanner include a character document, a printed photo document represented by area gradation such as halftone dots, a photographic paper photo document, and a mixture of these.
[0003]
The read image data of the document is subjected to desired image processing in an image processing device provided in a digital copying machine, for example, and output. Examples of such image processing include color correction processing, black generation and under color removal processing, spatial filter processing, and tone reproduction processing.
[0004]
In addition to the above-described processing, for example, a plurality of areas such as a character area, a halftone dot area, and a photograph (photographic paper photograph) area are identified by processing called area separation processing, and processing suitable for various areas is performed. To improve image quality.
[0005]
By the way, when a document image is particularly color, a specific color, for example, a color of human skin, sky blue, greenery of a plant, or the like, which is more human-readable than reproducing the color faithful to the original image. It is necessary to perform image processing for a memory color or the like which is a color for which reproduction of a color close to the stored color is preferably felt.
[0006]
To perform such processing, a memory color area is determined in advance, and it is determined whether or not each pixel is included in the memory color area using an arithmetic expression, and the number of pixels determined to be a memory color is counted. There is a configuration in which a ratio to the total number of pixels is calculated and compared with a threshold value to determine whether it is necessary to set a color separation condition for the memory color (for example, see Patent Document 1).
[0007]
[Patent Document 1]
JP-A-2-50859 (published on February 20, 1990)
[0008]
[Non-patent document 1]
Toshishi Takahashi, Masayuki Yoshida, Takayoshi Semasa, Fumitaka Ono (Mitsubishi Electric Corp.), "Adaptive binarization of mixed text / dot / photo images", Proceedings of the 121st Technical Conference (The Institute of Image Electronics Engineers of Japan) , March 22, 1991, pp. 19-24.
[0009]
[Problems to be solved by the invention]
However, the configuration ofPatent Literature 1 is effective for, for example, a photographic paper photograph in which each pixel in the skin color region is almost skin color. Cannot be correctly determined as to a memory color for an area gradation image composed of a color different from the skin color. That is, in the area gradation image area, it is difficult to determine the specific color.
[0010]
Here, the area gradation image data is image data expressing color information including a halftone, and is, for example, halftone image data composed of halftone dots, composed of regularly dense parallel lines. Line data or image data created by error diffusion, and includes all data using a halftone generation method such as a pixel distribution method, a dither method, and a density pattern method.
[0011]
In such area gradation image data, it is possible to determine that the image data is area gradation image data by using, for example, a region separation process. However, what color is recognized when the pixel is viewed as a center. It is not possible to determine the appearance of the pixel, such as whether the pixel is visible.
[0012]
Therefore, conventionally, when the area image data is included in the input image data of the image processing apparatus, there has been a problem that a sufficient effect cannot be obtained in the image processing.
[0013]
That is, when performing image processing such as color correction processing for each pixel point of image data, appropriate image processing cannot be performed, and sufficient effects can be obtained in color correction processing such as memory color processing. Can not.
[0014]
The present invention has been made in view of the above problems, and has as its object to provide an image processing apparatus and an image reading apparatus capable of appropriately performing image processing on area gradation image data included in input image data. To provide an image forming apparatus, an image processing method, an image processing program, and a computer-readable recording medium recording the same.
[0015]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, an image processing apparatus of the present invention converts input image data into output image data by performing predetermined processing by image processing means. Image determining means for determining whether tone image data is included, and color information calculating means for calculating color information of the input image data determined to include area gradation image data by the image determining means. It is characterized by having.
[0016]
Here, the area gradation image data is, for example, halftone image data composed of halftone dots, line image data composed of regularly arranged parallel lines, or an image created by error diffusion. This is data for expressing colors including halftones, such as data. For example, in the case of halftone image data, by changing the density of the arrangement of halftone dots, and in the case of line image data, by changing the line thickness in accordance with the density of the image, the gradation including halftones can be obtained. Expression can be done.
[0017]
According to the above configuration, for example, the color information corresponding to the gradation to be expressed is obtained from the input image data. Therefore, even when the input image data includes the area gradation image data, the color information including the halftone is obtained. Obtainable.
[0018]
Here, the halftone refers to an intermediate grayscale, that is, a grayscale that can be expressed only by using an area grayscale.
[0019]
As an example of such a configuration, there is a configuration in which color information calculating means obtains color information from input image data determined to be a print photograph including a halftone image by automatic document type determining means as image determining means. As another example, there is a configuration in which, in an image processing apparatus provided in an image forming apparatus, a print photo mode is selected as an image mode from an operation panel. In this case, color information is obtained by the color information calculation unit from input image data determined as a printed photograph including the halftone image by the CPU (control unit) as an image determination unit that determines the halftone image. In these cases, it is not always necessary to perform area separation.
[0020]
In the image processing apparatus, it is preferable that the document type determination unit that determines the type of the document corresponding to the input image data based on the input image data includes the image determination unit and the color information calculation unit.
[0021]
According to the above configuration, the document type determination unit can determine the type of the document and also determine whether the document is an area gradation document. Therefore, in the case of an area gradation original, the color information can be obtained, and appropriate processing can be performed on the entire original.
[0022]
In the image processing apparatus described above, it is preferable that the image determination unit determines based on input data from an operation display unit that can be input by a user.
[0023]
According to the above configuration, the type of the document can be easily determined by, for example, input from the operation panel, and whether or not the input image data includes the area gradation image data can be easily determined.
[0024]
The image processing apparatus according to the present invention includes: an area separating unit that separates and extracts the area of the area gradation image data from the input image data; And a color information calculating means for calculating color information for each block of pixels or for each document (for the entire document).
[0025]
According to the above configuration, the area of the area gradation image data can be extracted for each pixel or for each block or for the entire original by the area separation processing by the area separation means, and color information can be obtained.
[0026]
In the above image processing apparatus, the color information calculation unit calculates the color information to determine whether the area gradation image data is a predetermined specific color, whether the density is a predetermined density, or It is preferable to determine whether or not the saturation is a predetermined saturation.
[0027]
According to the above configuration, for example, the determination result of the color information calculation unit indicates that the area of the area gradation image data is a specific color such as a flesh color, a specific density, or a specific saturation. In this case, high image quality can be achieved by selecting an appropriate method as a process (for example, a color correction process, a spatial filter process, a gradation reproduction process, etc.) for the input image data.
[0028]
Note that the specific color is, for example, a color of human skin, blue of the sky, green of vegetation, or the like, which is closer to the color memorized by humans than reproducing colors faithful to the original image. A so-called memory color, which is a color that makes the reproduction of the image preferable.
[0029]
It is preferable that the image processing apparatus includes a control unit that switches a process for converting the input image data into the output image data by the image processing unit based on a determination result of the color information calculation unit.
[0030]
According to the above configuration, the color correction processing and the black correction are performed based on whether the area gradation image area is a specific color, a specific density, or a specific saturation. It is possible to switch processing contents such as a generation under color removal processing, a spatial filter processing, and a gradation reproduction processing. Thereby, appropriate processing can be performed according to the characteristics of the input image data.
[0031]
For example, in the black generation and under color removal processing, when the area gradation image area is a specific color, the amount of black generation is reduced or black generation is not performed, so that isolated black dots in the flesh color area are suppressed and the granularity is reduced. Feeling can be suppressed.
[0032]
Further, the control means can be realized by, for example, a CPU.
[0033]
In the above image processing apparatus, the image processing unit is a color correction unit that converts the input image data into image data of a color system different from the input image data and performs a color correction process on the input image data. It is preferable to switch the color correction processing for a pixel or a block including a plurality of pixels or for each document based on the determination result of the color information calculation unit.
[0034]
According to the above configuration, it is possible to convert the pixel or the block of the area gradation or the entire original into the optimum value or the designated color. Specifically, by performing a memory color process or performing a color conversion process such as image editing, for example, in a copier or a scanner driver (image processing device) having an editing function, a color specified by a user is changed. it can.
[0035]
In the above-described image processing apparatus, the image processing unit is a spatial filter unit that performs a spatial filter process on the input image data, and the control unit is configured to control the pixel or a plurality of pixels based on a determination result of the color information calculation unit. It is preferable to switch the spatial filter processing for each block or for each document.
[0036]
According to the above configuration, in the area gradation image area, a predetermined specific color area, a predetermined specific density area, a predetermined specific saturation area, or a predetermined specific color area is used. In addition, it is possible to perform an optimal spatial filtering process on an original including an area gradation image region having a predetermined specific density or a predetermined specific saturation.
[0037]
In the above image processing apparatus, the image processing means is a tone reproduction processing means for performing a process of converting the input image data into a predetermined number of tones, and the control means is configured to perform a process based on a determination result of the color information calculation means. It is preferable to switch the tone reproduction process for each pixel, a block including a plurality of pixels, or for each document.
[0038]
According to the above configuration, in the area gradation image region, an optimum gradation reproduction process is performed on a predetermined specific color region, a predetermined specific density region, or a predetermined specific saturation region. be able to.
[0039]
An image reading apparatus according to the present invention includes the image processing apparatus described above, reads an image from a document, and performs a predetermined process on the read image.
[0040]
According to the above configuration, for example, when the area gradation image area is a specific color such as a flesh color, it is possible to perform a memory color process or convert the area gradation image area to a color of the area gradation image area or a color designated by a user. It is possible to provide an image reading device capable of performing appropriate image processing.
[0041]
An image forming apparatus according to the present invention includes an image processing apparatus described above, an image input apparatus that reads an image from a document, and inputs the read image to the image processing apparatus, and output image data processed by the image processing apparatus. And an image output device for forming an image on a recording medium based on the image data.
[0042]
According to the above configuration, for example, when the area gradation image region is a specific color such as a flesh color, an image that performs appropriate color correction processing, spatial filter processing, and gradation reproduction processing to output a high-quality image A forming device can be provided.
[0043]
In order to solve the above-mentioned problem, the image processing method of the present invention is a method for performing predetermined processing on input image data and converting the input image data into output image data, wherein the input image data includes area gradation image data. And a calculating step of calculating color information of the input image data determined to include the area gradation image data.
[0044]
According to the above method, for example, color information corresponding to the gradation to be expressed is obtained from the input image data. Therefore, even when the input image data includes the area gradation image data, the color information including the halftone is obtained. Obtainable. Therefore, the area gradation image data included in the input image data can be appropriately image-processed.
[0045]
Further, the image processing method of the present invention is an image processing method of performing predetermined processing on input image data and converting the input image data into output image data, wherein the area of the area gradation image data is separated and extracted from the input image data. A region separating step, and a calculating step of calculating the color information for each pixel, for each block of a plurality of pixels, or for each original (for the entire original) in the area of the extracted area gradation image data. It is characterized by containing.
[0046]
According to the above method, the area separation processing in the area separation step can extract the area of the area gradation image data for each pixel, for each block, or for the entire document, and can obtain color information. .
[0047]
The image processing method described above calculates color information and determines whether or not the area gradation image data is a predetermined specific color, has a predetermined density, or has a predetermined density. It is preferable to include a color information determination step of determining whether or not saturation is present.
[0048]
According to the above method, for example, when the area of the area gradation image data is a specific color such as flesh color, a specific density, or a specific saturation, processing on the input image data (for example, color correction processing, spatial filter processing, By selecting an appropriate method as the tone reproduction process, it is possible to achieve high image quality in an image processing apparatus to which the image processing method is applied.
[0049]
In the image processing method described above, it is preferable to switch processing for converting input image data to output image data based on the calculation result of the color information of the area gradation image data.
[0050]
According to the above method, for example, the color correction processing is performed based on whether the area gradation image area is a specific color, a specific density, or a specific saturation. The processing contents such as black generation and under color removal processing, spatial filter processing, and gradation reproduction processing can be switched. Thereby, appropriate processing can be performed according to the characteristics of the input image data.
[0051]
An image processing program according to the present invention causes a computer to execute the above-described image processing method.
[0052]
According to the above configuration, for example, an image processing program of an image processing method capable of determining whether a halftone dot region is a specific color and performing appropriate color correction processing, spatial filter processing, and halftone processing Is loaded into a computer system, the image processing method can be provided to the user.
[0053]
A computer-readable recording medium according to the present invention stores the above-described image processing program.
[0054]
According to the above configuration, the image processing method can be provided to the user by loading the program recorded on the recording medium into the computer system.
[0055]
BEST MODE FOR CARRYING OUT THE INVENTION
[Embodiment 1]
One embodiment of the present invention will be described below with reference to FIGS. 1 to 6, FIG. 9, and FIG.
[0056]
FIG. 2 shows a configuration of a main part of a digital color copying machine (image forming apparatus) according to the present embodiment. As shown in FIG. 1, the digital color copying machine includes a color image processing device (image processing device) 1, a colorimage input device 2, and a colorimage output device 3. The colorimage processing device 1 is connected to a colorimage input device 2 and a colorimage output device 3 and anoperation panel 14.
[0057]
The colorimage input device 2 includes a scanner unit having, for example, a CCD (Charge Coupled Device), and converts a reflected light image from a document into an analog signal of RGB (R: red, G: green, B: blue). And input it to the colorimage processing apparatus 1.
[0058]
The colorimage processing apparatus 1 determines whether or not the input image data read from the original includes area gradation image data. I am asking for it.
[0059]
Hereinafter, the configuration of the colorimage processing apparatus 1 will be described with reference to FIG.
[0060]
The colorimage processing apparatus 1 includes an A / D (analog / digital)conversion unit 4, ashading correction unit 5, an automatic documenttype discrimination unit 6, an inputgradation correction unit 7, an area separation processing unit 8, Color correction unit (color correction unit, image processing unit) 9, black generation and undercolor removal unit 10, spatial filter processing unit (spatial filter unit, image processing unit) 11, output gradation correction unit 12, and gradation reproduction processing unit (Gradation reproduction processing means, image processing means) 13.
[0061]
As described below, the RGB analog signal (input image data) is converted into an A /D converter 4, ashading corrector 5, a document typeautomatic discriminator 6, an input tone corrector in the colorimage processing apparatus 1. 7, a region separation processing unit 8, a color correction unit 9, a black generation and undercolor removal unit 10, a spatialfilter processing unit 11, an output gradation correction unit 12, and a gradationreproduction processing unit 13, which are sent in this order, and CMYK (C: It is output to the colorimage output device 3 as a digital color signal (CMYK signal, output image data) of cyan / M: magenta / Y: yellow / K: black.
[0062]
The A /D converter 4 converts an RGB analog signal into a digital signal. Theshading correction unit 5 performs a process of removing various types of distortion generated in the illumination system, the imaging system, and the imaging system of the colorimage input device 2 from the digital RGB signals sent from the A /D conversion unit 4. It is something to give. Further, theshading correction unit 5 adjusts the color balance of the RGB signals (RGB reflectance signals) and simultaneously converts the RGB signals into a signal such as a density signal which is easy to handle by the image processing system employed in the colorimage processing apparatus 1. Is performed.
[0063]
The document typeautomatic discriminating section 6 inverts the RGB density signal to a complementary color and converts it into a CMY signal. Then, it is determined whether the input document is a character document, a print photo document, a photographic paper photo, or a mixed character / print photo document. For details of the automatic documenttype discriminating unit 6 that determines whether or not the input original image is an area grayscale image and calculates color information in the area grayscale image data, It will be described later.
[0064]
The inputtone correction unit 7 determines the presence or absence of a background and removes the background density or performs image quality adjustment processing such as contrast.
[0065]
The area separation processing section 8 separates each pixel in the input image data into any of a plurality of areas such as a character area, an area gradation image area, and a photograph (photographic paper photograph) area. The region separation processing unit 8 converts the region identification signal Q indicating to which region the pixel belongs to the color correction unit 9, the black generation and undercolor removal unit 10, the spatialfilter processing unit 11, and the tone reproduction based on the separation result. Output to theprocessing unit 13. Further, the area separation processing section 8 outputs the input signal input from the inputgradation correction section 7 to the subsequent color correction section 9 as it is.
[0066]
The color correction unit 9 performs a process of removing color turbidity based on the spectral characteristics of the CMY color materials including unnecessary absorption components, in order to realize faithful color reproduction.
[0067]
The black generation and undercolor removal unit 10 generates a black (K) signal from the three CMY color signals after color correction, and subtracts the K signal obtained by the black generation from the original CMY signal to generate a new CMY signal. The CMY three-color signal is converted into a CMYK four-color signal.
[0068]
As an example of the black generation processing, there is a method (general method) of performing black generation using skeleton black. In this method, the input / output characteristic of the skeleton curve is y = f (x), the input data is C, M, Y, the output data is C ′, M ′, Y ′, K ′, and the UCR (Under Color) Assuming that the (Removal) rate is α (0 <α <1), the black generation and under color removal processing is represented by the following equations (1) to (4).
[0069]
K ′ = {min (C, M, Y)} (1)
C ′ = C−αK ′ (2)
M ′ = M−αK ′ (3)
Y ′ = Y−αK ′ (4)
The spatialfilter processing unit 11 performs a spatial filter process using a digital filter on the image data of the CMYK signal input from the black generation and undercolor removal unit 10 based on the region identification signal Q to correct the spatial frequency characteristics. The processing is performed to prevent the output image from being blurred and the graininess from deteriorating. Similarly to the spatialfilter processing unit 11, the tonereproduction processing unit 13 performs a predetermined process on the image data of the CMYK signal based on the region identification signal Q.
[0070]
In the spatialfilter processing unit 11, for example, the region separated into characters by the region separation processing unit 8 is subjected to a sharp enhancement process as a spatial filter process in order to enhance the reproducibility of a black character or a color character. The frequency emphasis amount is increased. Then, in a gradationreproduction processing unit 13 described later, binarization or multi-value processing on a high-resolution screen suitable for reproduction of a high frequency band is selected.
[0071]
In addition, the spatialfilter processing unit 11 performs a low-pass filter process for removing an input halftone dot component on the area separated into the area gradation image area by the area separation processing unit 8. Then, the output tone correction unit 12 performs an output tone correction process of converting a signal such as a density signal into a dot area ratio which is a characteristic value of the colorimage output device 3, and sends the image to the tonereproduction processing unit 13. Output data.
[0072]
The tonereproduction processing section 13 performs a tone reproduction process (halftone generation) for finally separating an image into pixels and performing processing so that each tone can be reproduced. With respect to the regions separated into photographs by the region separation processing unit 8, binarization or multi-value processing is performed on a screen that emphasizes tone reproducibility.
[0073]
The image data subjected to each of the above-described processes is temporarily stored in a storage unit (not shown), read out at a predetermined timing, and input to the colorimage output device 3. The colorimage output device 3 outputs image data on a recording medium (for example, paper). Examples of the colorimage output device 3 include, but are not particularly limited to, a color image output device using an electrophotographic system or an inkjet system.
[0074]
The above processing is controlled by a CPU (Central Processing Unit, not shown).
[0075]
Hereinafter, it is determined whether or not the original to be read is a print photograph image (area gradation image) or whether or not the area gradation image is included, and the color information of the area gradation image is calculated. The automatic document type discriminating unit (document type discriminating unit) 6 that determines whether or not an area of a specific color is included will be described.
[0076]
Here, the image data of the area gradation image (area gradation image data) is image data that expresses color information including halftones. Line image data composed of parallel lines densely arranged, or image data created by error diffusion. That is, it includes all image data using a halftone generation method such as a pixel distribution method / dither method and a density pattern method.
[0077]
First, the configuration of the document typeautomatic discrimination unit 6 will be described with reference to FIG.
[0078]
As shown in FIG. 2, the document typeautomatic discrimination unit 6 includes a discrimination control unit (image determination unit) 61, a color information calculation unit (color information calculation unit, input data color information calculation unit) 62, and a document determination unit ( Color information calculating means, color information determining means) 63.
[0079]
Thediscrimination control section 61 performs complementary color inversion on the RGB signals to generate CMY signals, outputs the CMY signals to the inputtone correction section 7, and, based on the image data (CMY signals), determines the type of the input document (character It is determined whether the document is a document, a printed photo document (area gradation image), a photographic paper photo, or a mixed character / print photo document.
[0080]
The colorinformation calculation unit 62 calculates color information in parallel with the above determination by thedetermination control unit 61.
[0081]
Thedocument determination unit 63 determines whether or not a document image includes a specific color region (presence or absence of a specific color region).
[0082]
The process of thediscrimination control unit 61 and the process of the colorinformation calculation unit 62 are performed in parallel by inputting input image data to thediscrimination control unit 61 and the colorinformation calculation unit 62 as shown in FIG. You can go.
[0083]
Next, the processing in the automatic documenttype discrimination unit 6 will be described with reference to the flowcharts shown in FIGS. Note that thediscrimination control unit 61 performs steps S (hereinafter referred to as S) 3 to S6 and S8 to S17 (determination process) described below, and the colorinformation calculation unit 62 performs S7 (calculation process and input data color information calculation process). , S18 to S21 (calculation step, color information determination step) are processing performed by thedocument determination unit 63.
[0084]
First, as shown in FIG. 3, a pre-scan of a document is performed in the color image input device 2 (S1). The RGB signals obtained by the pre-scan are subjected to predetermined processing and input to thediscrimination control unit 61. As described above, thediscrimination control unit 61 performs signal conversion by performing complementary color inversion of the RGB density signal to the CMY signal (S2).
[0085]
Next, thediscrimination control unit 61 creates a density histogram using the CMY signal with the complementary color inverted (S3).
[0086]
Then, from this histogram, the number of sections belonging to the low-frequency density having a frequency smaller than a predetermined threshold value is obtained, and the density category (first maximum frequency value (first maximum frequency value)) having the highest frequency is determined. Is determined (S4). Next, a density section having a second maximum frequency (having a second maximum frequency value) having a maximum frequency value other than the density section adjacent to the density section having the first maximum frequency is obtained (S5).
[0087]
On the other hand, in parallel with the processing of S3 to S5, the image data is binarized, a mask including a plurality of pixels including the target pixel is set, and the main scanning direction (the direction orthogonal to the scanning direction on the scanning surface of the scanner) The sum of the number of transition points from "0" to "1" and from "1" to "0" in the sub-scanning direction (direction parallel to the scanning direction of the scanner) is obtained (S6).
[0088]
The calculation of the number of conversion points may be, for example, a configuration in which only the number of change points in the main scanning direction may be obtained, and by using such a configuration, the speed can be increased.
[0089]
In addition, in parallel with the processing of S3 to S5 and S6 and the processing of S8 to 16 described later, a color information calculation processing described later is performed (S7).
[0090]
Then, after S5 and S6, the number of low-frequency density sections obtained in S4 is compared with a predetermined first threshold value. If the number of low frequency density sections is less than the first threshold value, the process proceeds to S9. On the other hand, when the number of low frequency density sections is equal to or greater than the predetermined first threshold, the read document is assumed to be a text document as shown in S17 of FIG.
[0091]
When the number of low frequency density sections is less than the predetermined first threshold value (No in S8), subsequently, the ratio of the first maximum frequency value to the total number of pixels is calculated, and this ratio and the second predetermined threshold value are calculated. Are compared with the threshold value (S9). If the ratio of the first maximum frequency value to the total number of pixels is less than the second predetermined threshold value (No in S9), the process proceeds to S10. If the ratio of the first maximum frequency value to the total number of pixels is equal to or greater than a predetermined second threshold value (Yes in S9), it is determined that the read document is a character document as shown in S17 of FIG. I do.
[0092]
If the ratio of the first maximum frequency value to the total number of pixels is less than a second predetermined threshold value, the ratio of the total number of pixels to (the first maximum frequency value−the second maximum frequency value) is calculated. The ratio is calculated, and the magnitude of the ratio is compared with a predetermined third threshold value (S10).
[0093]
At this time, if the above ratio is less than the third threshold (No in S10), the process proceeds to S11 shown in FIG. On the other hand, if the above ratio is equal to or larger than the third threshold value (Yes in S10), the process proceeds to S14 shown in FIG.
[0094]
In S11, according to the sum of the change points obtained in S6 described above, that is, if the obtained sum of the change points is equal to or greater than a predetermined threshold value (Yes in S11), the read original is written in a character / print. The value of the flag F is set to a assuming that the document is a photographic original (S12).
[0095]
Here, the sum of the number of change points is used to determine whether a document contains a printed photograph or a document containing a photographic paper. For example, in the case of an area gradation image, the variation of the image signal in the local region is large. Because. If the obtained sum of the number of change points is less than the predetermined threshold (No in S11), the read document is determined to be a text / photographic paper photo document (S13).
[0096]
Similarly, in S12, if the sum of the obtained change points is equal to or larger than the predetermined threshold value (Yes in S14), the read document is determined to be a print photo document, and the value of the flag F is set to b ( S15). If the sum of the obtained change points is less than the predetermined threshold (No in S14), the read document is determined to be a photographic paper photo document (S16).
[0097]
As described above, thediscrimination control unit 61 discriminates the type of the read document, and determines whether or not area gradation image data is included (S8 to S17, determination step).
[0098]
Here, the color information calculation processing (S7) performed by the colorinformation calculation unit 62 will be described with reference to FIGS. 5, 6, and 9. FIG. The colorinformation calculation unit 62 performs color information calculation processing (corresponding to the input data color information calculation step) for all input image data.
[0099]
As shown in FIG. 5, first, the number Ps of pixels of a specific color is set to 0 (S31). Subsequently, for example, a block including a plurality of pixels as shown in FIG. 6 is extracted from the input image data (S32). Here, 13 × 7 pixels including the target pixel are extracted as blocks to be extracted, but the present invention is not limited to this, and other sizes may be used.
[0100]
Then, color information on the target pixel in the block is calculated (S33), and it is determined whether the target pixel is a specific color (S34).
[0101]
Here, the specific color is not particularly limited, and may be any color that is predetermined.
[0102]
For example, a color such as human skin, blue sky, or greenery of a plant or the like, which preferably reproduces a color closer to the color memorized by humans than reproducing a color faithful to the original image. Any other color, such as a memory color, may be used. By performing a memory color process on this memory color, it is possible to output a preferable image. Since the preferred color has individual differences, usually, for example, a printer or the like sets the average value of the preferred color of many subjects as the most preferable reproduction.
[0103]
Thereafter, when it is determined that the target pixel is a specific color (Yes in S34), the value of the number Ps of pixels of the specific color is increased by one. When it is determined that the target pixel is not the specific color (No in S34), the value of the number Ps of pixels having the specific color is left as it is.
[0104]
Then, it is determined whether or not the determination has been completed for all the pixels (S36). If the determination has been completed for all the pixels, the ratio of the number Ps of the pixels of the specific color to the total number of pixels is determined in advance. The threshold value THs (for example, 0.05) is compared (S37). At this time, if the ratio of the number Ps of the pixels of the specific color is equal to or greater than the threshold value THs, the value of the flag G is set to c, and the color information calculation processing ends. On the other hand, if the ratio of the number Ps of the pixels of the specific color is smaller than the threshold value THs, the color information calculation processing is terminated.
[0105]
If the determination has not been completed for all the pixels (No in S36), the process returns to S32, the block is shifted by one pixel in the main scanning direction, and the processing of S33 to S35 is repeated.
[0106]
In the comparison in S37, the number Ps of pixels may be used as it is, instead of the ratio of the number Ps of pixels.
[0107]
Here, as an example of a method (S34) of determining whether or not the target pixel is a specific color, there is the following method.
[0108]
First, as calculation of color information, an average value (Dave) = (Cave, Mave, Yave) of signal levels is obtained for 13 × 7 pixels in a block.
[0109]
If Cth1 <Cave <Cth2, Mth1 <Mave <Mth2, and Yth1 <Yave <Yth2, it is determined as a specific color according to predetermined thresholds Cth1, Cth2, Mth1, Mth2, Yth1, and Yth2. I do. Otherwise, it is determined to be a non-specific color.
[0110]
Another example of the method (S34) of determining whether the target pixel is a specific color is as follows.
[0111]
First, an average value (Dwave) = (Cwave, Mwave, Ywave) of weighted signal levels in a block using a weighting filter (see FIG. 9) is obtained.
[0112]
If Cth1 <Cwave <Cth2, Mth1 <Mwave <Mth2, and Yth1 <Ywave <Yth2, the color is determined as a specific color according to predetermined thresholds Cth1, Cth2, Mth1, Mth2, Yth1, and Yth2. I do. Otherwise, it is determined to be a non-specific color. As an example of a specific numerical value of the threshold, when determining a skin color as a specific color, (Cth1, Mth1, Yth1) = (45, 120, 135), (Cth2, Mth2, Yth2) = (30, 85, 100).
[0113]
FIG. 9 shows an example of the configuration of the weighting filter. Here, the filter coefficients for thecenter 5 × 5 pixels of the weighting filters used for the 13 × 7 pixels in the block are shown. Since the remaining filter coefficients are 0, they are omitted.
[0114]
The filter used as the weighting filter is not limited to the configuration shown in FIG. 9, but may have another configuration.
[0115]
Still another example of the method (S34) of determining whether the target pixel is a specific color is as follows.
[0116]
First, it is determined whether or not each pixel has a specific color by using a threshold value for each 13 × 7 pixel in the block.
[0117]
Then, when the number of pixels determined to be the specific color is larger than a predetermined threshold, the pixel is determined to be the specific color. Otherwise, it is determined to be a non-specific color. In the next determination of the target pixel, another block is selected and the determination is performed in the same manner.
[0118]
As described above, after thediscrimination control section 61 performs the discrimination processing of the document type (decision step) and the colorinformation calculation section 62 performs the color information calculation processing (input data color information calculation step), these processing results The data is input to theunit 63. The processing (color information determination step) in thedocument determination section 63 will be described with reference to FIG.
[0119]
First, it is determined whether or not the value of the previously set flag F is a (S18). If the value of the flag F is a, it is further determined whether or not the value of the flag G is c (S20). On the other hand, if the value of the flag F is not a, it is determined whether or not the value of the flag F is b (S19). If the value of the flag F is b, it is further determined whether or not the value of the flag G is c (S20). If the value of the flag F is not b (No in S19), the process ends.
[0120]
Subsequently, in S20, when the value of the flag G is c, it is determined that the input image data includes an area of a specific color (S21), and when the value of the flag G is not c, the processing is performed. To end.
[0121]
In accordance with the type of the document and the presence or absence of the specific color determined as described above, thedocument determination unit 63 outputs the document type determination signal P and the document type determination signal P to the inputtone correction unit 7, the area separation processing unit 8, The color correction unit 9, the black generation and undercolor removal unit 10, the spatialfilter processing unit 11, and the tonereproduction processing unit 13 are output. That is, the document type determination signal P includes information on the document type and the presence / absence of a specific color.
[0122]
In response to the document type determination signal P (determination result of the document type automatic determination unit 6), the inputtone correction unit 7 performs image quality adjustment processing such as removal of background density and contrast. The area separation processing unit 8, the color correction unit 9, the black generation and undercolor removal unit 10, the spatialfilter processing unit 11, and the tonereproduction processing unit 13 perform appropriate processing based on the document type determination signal P. Color correction table, black generation amount, filter coefficient, gradation correction curve, etc.
[0123]
In the above, the method of determining the document type by the pre-scan has been described. However, the pre-scan is not necessarily required, and the image data after the shading correction processing is stored in the image memory, and after the determination of the document type is performed. Alternatively, the image data may be read out and processed.
[0124]
Further, in the above configuration, when the document typeautomatic discrimination unit 6 determines that the area gradation image includes the area of the specific color, when the colorinformation calculation unit 62 recognizes the skin color, the skin color is included. You may make it count the number of blocks. Then, when the number of blocks is larger than a predetermined threshold value, for example, the document may be determined to be a “halftone (area gradation) person image”. In this case, color correction processing / spatial filter processing and gradation reproduction processing are performed on the entire image.
[0125]
In the digital color copying machine, the operation of the colorimage processing apparatus 1 may be set on theoperation panel 14.
[0126]
In this case, for example, the document type (image mode) may be set manually. That is, when the image mode is manually input from theoperation panel 14, the input image mode is identified by, for example, the CPU, and the processing of the color correction unit 9, the spatialfilter processing unit 11, and the gradationreproduction processing unit 13 is switched. There may be.
[0127]
In this case, the configuration of theoperation panel 14 may be, for example, a configuration including a display unit such as a liquid crystal display and setting buttons.
[0128]
Further, the colorinformation calculation section 62 and thedocument determination section 63 are not limited to the configuration provided in the document typeautomatic determination section 6.
[0129]
[Embodiment 2]
Another embodiment of the present invention will be described below with reference to FIGS. 2 and 6 to 14. Note that, in the present embodiment, components having the same functions as the components in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted.
[0130]
The digital color copying machine (image forming apparatus) according to the present embodiment has the same configuration as the digital color copying machine according to the first embodiment shown in FIG. 2 except for the document typeautomatic discrimination unit 6 and the area separation processing unit 8. ing. The image processing apparatus in the digital color copying machine according to the present embodiment does not include the automatic documenttype discriminating unit 6, and the above-described document type discriminating process (corresponding to the discriminating process) and the color information calculating process in the area separating unit 8. (Corresponding to the calculation step).
[0131]
Further, in this embodiment, since the document typeautomatic discriminating section 6 is not provided, the RGB signals are directly supplied to the inputtone correcting section 7, the area separation processing section 8 and the color correcting section 9 (without complementary color inversion). Is entered. During this time, the processing content is the same as that of the first embodiment, except for the form of the signal.
[0132]
As shown in FIG. 7, the region separation processing unit 8 includes a separation control unit (image determination unit, region separation unit) 81, a color information calculation unit (color information calculation unit) 82, and an image region determination unit (color information calculation unit). Means) 83.
[0133]
Theseparation control unit 81 separates each pixel in the input image data into any one of a plurality of regions such as a character region, an area gradation image region, and a photograph region, and separates an input signal input from the inputgradation correction unit 7. Is output as it is to the subsequent color correction unit (color correction means) 9.
[0134]
The colorinformation calculation unit 82 calculates color information from the input image data determined to include the area gradation image data by theseparation control unit 81.
[0135]
The imagearea determination unit 83 determines whether or not a specific color area is included in the document image (presence or absence of a specific color area).
[0136]
Hereinafter, a method of separating an area gradation image region by a conventionally used region separation processing method and determining whether a target pixel is a specific color will be described with reference to FIG. Here, as the region separation processing method, for example, the method described inNon-Patent Document 1 can be used.
[0137]
First, for example, a block of 13 × 7 pixels as shown in FIG. 6 is extracted from the image data, and the average value (Dave) = (Rave, Gave, Bave) of the signal level for each color component of the pixels in the block is calculated. It is obtained (S41). The size of this block is not limited to 13 × 7 pixels as shown in FIG.
[0138]
Next, the maximum pixel signal level (Dmax) and the minimum pixel signal level (Dmin) of each pixel in the block are obtained (S42).
[0139]
Thereafter, each pixel in the block is binarized using the average value (Dave) obtained in S41. Then, using the binarized data, the number of points of change from 0 to 1 in the main scanning direction and the number of points of change from 1 to 0 in the sub-scanning direction are obtained, and are respectively set to KH and KV (S43).
[0140]
Steps S41 to S43 are performed by theseparation control unit 81.
[0141]
Subsequently, for Dave, Dmax, Dmin, KH, and KV obtained as described above, theseparation control unit 81 satisfies thefollowing condition 1 using predetermined thresholds TH, TV, B1, and B2. It is determined whether or not this is the case (S44). Here, thecondition 1 is given by Dmax-Dave> B1, Dave-Dmin> B2, KH> TH, and KV> TV.
[0142]
Here, when theabove condition 1 is satisfied with at least one of the RGB which is the color component of the input image data (Yes in S44), in theseparation control unit 81, the target pixel is set to the area gradation image area. It is determined that there is (S45). This is to identify an area gradation image area by utilizing a large fluctuation of an image signal in a small area and a higher density than a background in the area gradation image area. That is, the determination using KH and KV corresponds to the determination of the magnitude of the variation, and the determination using Dmax, Dmin, and Dave prevents erroneous determination with the background.
[0143]
Further, the area determination (S44) is not limited to the method using theabove condition 1, and for example, the following method may be used.
[0144]
For example, instead of the average value (Dave), the determination may be performed using a weighted average value (Dwave) calculated using a weighting filter as shown in FIG. 9, for example. That is, the determination may be made based on Dmax-Dwave> B1, Dwave-Dmin> B2, KH> TH, and KV> TV instead ofCondition 1 as Condition 1 '.
[0145]
Note that FIG. 9 shows the elements of thecenter 5 × 5 pixels among the weighting filters used for the 13 × 7 pixels in the block, and the remaining elements are 0, as described above. It has been omitted.
[0146]
By using the weighted average value in this manner, even in the vicinity of the boundary of the area gradation image, that is, for example, when the block to be determined includes the boundary between the area gradation image and the non-area gradation image, Even if there is, the area can be accurately separated.
[0147]
Subsequently, in the area (S45) determined to be an area gradation image area in S44, the colorinformation calculation unit 82 calculates color information for determining whether or not the target pixel is a specific color. (Color information calculation means). As the color information, for example, an average value (Rave, Gave, Bave) of each signal obtained in S41 can be used.
[0148]
The imagearea determination unit 83 determines whether the target pixel is a specific color using the color information. For example, the determination is made by determining whether or not the average value (Rave, Gave, Bave) of each signal satisfies thefollowing condition 2 with respect to predetermined threshold values Rth1, Rth2, Gth1, Gth2, Bth1, Bth2. . Here, thecondition 2 is given by Rth1 <Rave <Rth2, Gth1 <Gave <Gth2, and Bth1 <Bave <Bth2 (S46).
[0149]
Here, when thecondition 2 is satisfied, the target pixel is determined to be the specific color, and the process ends (S47). On the other hand, if thecondition 2 is not satisfied, the process is terminated assuming that the target pixel is not a specific color (S48).
[0150]
In addition, as an example of a specific numerical value of the threshold value, when determining a skin color as a specific color, a value (Rth1, Gth1, Bth1) obtained by inverting the value described in the first embodiment = (210, 135, 120) ), (Rth2, Gth2, Bth2) = (225, 170, 155).
[0151]
On the other hand, if theabove condition 1 does not hold for any of the RGB which are the color components of the input image data (No in S44), it is determined whether or not the non-area gradation image area is a character area. . This determination is made by determining whether thefollowing condition 3 is satisfied (S49).
[0152]
That is, in S49, a difference (Dsub) between the maximum pixel signal level (Dmax) and the minimum pixel signal level (Dmin) obtained in S42 is obtained, and Dmax, Dmin, and Dsub are set to predetermined thresholds PA, PB, and PC. Compare with Here, thecondition 3 is given by Dmax> PA, Dmin <PB, or Dsub> PC.
[0153]
If thecondition 3 is satisfied, the pixel of interest is determined to be a character area, and the process ends (S50). That is, if theabove condition 3 is satisfied with at least one of RGB which is a color component of the input image data, the area is a character area. On the other hand, if thecondition 3 is not satisfied, the pixel of interest is determined to be the photographic paper photographic area, and the process ends (S51).
[0154]
Note that S47 and S48 are performed by the imagearea determination unit 83, and S49 to S51 are performed by theseparation control unit 81.
[0155]
The determination using the condition 3 (S49) is identification of a character area using the fact that the difference between the maximum signal level and the minimum signal level is large and the density is high in the character area. In the above-described region separation processing, a region may be determined for each pixel, or a determination may be made for a block including a plurality of pixels.
[0156]
The determination of the specific color (S46) may be performed by the following method.
[0157]
That is, for all pixels in the block determined to be an area gradation image region, a specific color determination is performed for each pixel, and when the number of pixels determined to be the specific color is greater than a determination threshold, The target pixel is determined to be a specific color area. In determining the specific color of each pixel, the value RGB of the pixel may be used instead of the average value (Rave, Gave, Bave) of each signal in theabove condition 2.
[0158]
Note that what is determined in S46 is not limited to the color (specific color) consisting of hue, lightness, and saturation, but may be, for example, whether or not a specific density or saturation is set in advance. It doesn't matter.
[0159]
That is, the determination as to whether or not the target pixel has a specific density may be similarly performed in S46 to S48. In this case, for example, a description will be given of the determination as to whether or not it is a highlight. The average value (Rave, Gave, Bave) of each signal obtained in S41 is different from a predetermined threshold value Rth3, Gth3, Bth3. Is determined by determining whether thefollowing condition 2 is satisfied. Thecondition 2 used in S46 is such that Rth3 <Rave, Gth3 <Gave, and Bth3 <Bave. As a specific example of numerical values, Rth3 = Gth3 = Bth3 = 220.
[0160]
Also, the determination as to whether or not the target pixel has a specific saturation may be similarly performed in S46 to S48.
[0161]
In this case, for example, the determination of whether or not the color saturation is low will be described. Thecondition 2 used in S46 is MAX (Rave, Gave, Bave) −MIN (Rave, Gave, Bave) <THc. At this time, the colorinformation calculation unit 82 calculates MAX (Rave, Gave, Bave), MIN (Rave, Gave, Bave) and a difference value between them.
[0162]
Thus, the area separation processing section 8 outputs the area identification signal Q obtained by the above-described area separation processing in S41 to S51.
[0163]
In addition, as the region separation processing unit 8, the input image data is input to theseparation control unit 81 and the colorinformation calculation unit 82 to perform processing in parallel, and the imageregion determination unit 83 performs the region determination processing of the target pixel. It does not matter. In this case, theseparation control unit 81 extracts a feature amount for separating each pixel in the input image data into any of a plurality of regions such as a character region, an area gradation image region, and a photograph region (see FIG. 8, S41 to S43), and the colorinformation calculation unit 82 determines whether or not the target pixel is a specific color (S46 in FIG. 8).
[0164]
The imagearea determination unit 83 determines whether the pixel of interest belongs to a character area, an area gradation image area, or a photographic paper photograph area (S44, S45, S49 to S51 in FIG. 8). When it is determined that the area is the area, it is further determined whether or not the color is a specific color with reference to the result of the color information calculation unit 82 (S47 and S48).
[0165]
Next, a processing method for an area which is an area gradation image area and is determined to be a specific color will be described.
[0166]
First, the color correction processing in the color correction unit 9 will be described with reference to FIG.
[0167]
After performing the area separation processing and the color information calculation processing corresponding to S41 to S51 described with reference to FIG. 8 as described above (S61), the CPU (control means) responds to the input area identification signal Q. It is determined whether or not the pixel belongs to the area gradation image area (S62).
[0168]
At this time, if the pixel belongs to the area gradation image area, it is determined whether or not the pixel is a specific color based on the area identification signal Q (S63 (color information determination step)). If the pixel has a specific color, a memory color process is performed (S64). If the pixel does not belong to the area gradation image area in S63, and if the pixel is not a specific color in S64, a default color correction process (S65) is performed.
[0169]
When these processes (S64 and S65) are performed, it is determined whether or not the processes for all the pixels have been completed (S66). If the processes have been completed, the process ends. If not, the process proceeds to S62. Return to
[0170]
Here, as an example of the memory color processing (S64) performed when the pixel to be subjected to the color correction processing is a pixel of a specific color belonging to the area gradation image area, a color correction processing by a matrix method will be described.
[0171]
In this matrix system, conversion from input signals RGB (Ri, Gi, Bi) to output signals CMY (Cbi, Mbi, Ybi) color-corrected is realized using matrix operation, as in the following equation (5). I do.
[0172]
(Equation 1)
[0173]
Here, the conversion matrix aij and the like used in the color storage processing for the specific color can be determined as follows, for example.
[0174]
That is, for example, in order to obtain a matrix in which a skin color as a memory color is brighter and preferably reproduced, a color patch (Cai, Mai, Yai) [i = 1, 2,... Output. Then, the output color patch is scanned to obtain (Ri, Gi, Bi). Then, a preferable reproduction value corresponding to each color patch is (Cbi, Mbi, Ybi). Using all data sets (Ri, Gi, Bi) and (Cbi, Mbi, Ybi), constants a11 to a33 and b1 to b3 satisfying these relationships are obtained by the least square method. In order to perform color conversion with higher accuracy, it is sufficient to include higher-order terms of the second or higher order of RGB.
[0175]
Next, the spatial filter processing in the spatialfilter processing unit 11 will be described with reference to FIG.
[0176]
In S71 and S72, similarly to S62 and S63 shown in FIG. 10, it is determined in accordance with the region identification signal Q whether or not the pixel is a pixel of a specific color belonging to the area gradation image region.
[0177]
If the pixel is a pixel of a specific color belonging to the area gradation image area (Yes in S72), strong smoothing processing (S73) is performed. That is, spatial filter processing is performed using a weighting filter as shown in FIG. 9, for example. Thus, by taking in information of surrounding pixels and reducing the difference from the surroundings, it is possible to reproduce a natural image with further reduced graininess.
[0178]
Note that FIG. 9 shows the elements of thecenter 5 × 5 pixels of the weighting filter used for the 13 × 7 pixels in the block, and the remaining elements are 0, and thus are omitted. .
[0179]
On the other hand, if it is determined in S71 that the area is not an area gradation image area, filter processing is performed in accordance with the area identification signal Q (S75). In addition, for the pixel determined to be not a specific color in S72, a spatial filter process is performed using a default filter (coefficient) (S74). Here, as the default filter, for example, a filter having a lower smoothness than the filter shown in FIG. 9 as shown in FIG. 12 can be used.
[0180]
After the above processing, it is determined whether or not the processing of all the pixels has been completed (S76). If the processing has not been completed, the process returns to S71. If the processing has been completed, the output data is sent to the output gradation correction unit 12. Is output.
[0181]
Next, the tone reproduction (halftone) process in the tonereproduction processing unit 13 will be described with reference to FIG.
[0182]
In S81 and S82, similarly to S62 and S63 shown in FIG. 10, it is determined according to the region identification signal Q whether the pixel is a pixel of a specific color belonging to the area gradation image region.
[0183]
If the pixel is a pixel of a specific color belonging to the area gradation image area (Yes in S82), an error diffusion process using a large matrix is performed (S83).
[0184]
Here, the error diffusion processing is one of halftone processing methods that represent input image data by binary or multi-valued quantized values (the number of output gradations). In the error diffusion process, first, a diffusion error xy is added to the input image data I′xy. The image data Ixy (hereinafter, input image data) to which the diffusion error has been added is compared with a predetermined threshold and quantized.
[0185]
For example, in the case of binarization, the threshold value is 127, and the quantization value (output image data) Oxy is 0, 255. That is, “0” is output if the image data (I′xy + exy) is equal to or smaller than the threshold 127, and “255” is output if the image data is larger than the threshold 127. Here, it is assumed that the image data (I′xy + exy) is larger than the threshold 127, and the output image data is “255”.
[0186]
Then, an error Exy between the quantized value and the image data is obtained by Exy = I'xy-Oxy.
[0187]
The error Exy thus obtained is two-dimensionally diffused to unprocessed pixels based on a predetermined diffusion coefficient.
[0188]
Here, FIG. 14 shows an example of a mask of a diffusion coefficient aij (error diffusion matrix) for a specific color. Note that the error diffusion is generally performed in order from the left pixel. Further, “*” in FIG. 14 is a pixel currently being processed (target pixel). The hatched pixels are pixels that have already been processed. In this case, the error is diffused to two pixels on the right of the target pixel and two lines (five pixels for each line) below the target pixel. The numerical value assigned to each pixel indicates the magnitude of the error to be diffused. The closer the pixel is to the target pixel, the smaller the more the error is diffused and the smaller the error. The value of the error to be diffused is calculated by a value obtained by multiplying the ratio of the diffusion coefficient (aij / Σaij) by the error, that is, (1 / Σaij)aijEx + 1,y + 1.
[0189]
As described above, the error of the processed pixel is sequentially accumulated in the unprocessed pixel. That is, in the error diffusion, the error generated by the quantization is fed back, so that the density is preserved.
[0190]
In this error diffusion processing, if a large error diffusion matrix is used, the error is diffused to many pixels, so the variance of the error diffusion is reduced, and a smooth image (image with good gradation) can be obtained. In this case, although the resolution is reduced, for example, a high error resolution is not required for a flesh color region of a portrait, so a large error diffusion matrix is used for a region of a specific color (skin color) as described above. Further, for example, in the case of the halftone by the systematic dither method, a configuration may be adopted in which the size of the matrix is made larger and the error is diffused to a wider range to obtain a smooth gradation. Alternatively, the matrix may be switched according to the method of area gradation image data, such as the systematic dither method or the parallel line.
[0191]
On the other hand, if it is determined in S81 that the area is not an area gradation image area, error diffusion processing is performed according to the area identification signal (S85). Further, for the pixels determined to be not the specific color in S82, error diffusion processing is performed using a default matrix (S84).
[0192]
This default diffusion matrix is represented, for example, by the following equation (6).
[0193]
(Equation 2)
[0194]
After the above processing, it is determined whether or not processing of all pixels has been completed (S86). If not completed, the process returns to S81. If completed, the output image data is sent to the colorimage output device 3. Output.
[0195]
In the present embodiment, an example has been described in which only the area separation processing unit 8 is provided without the automatic document type discrimination unit 6 (see Embodiment 1). Both the processing unit 8 and the processing unit 8 may be provided.
[0196]
In this case, for example, the document type is automatically determined by the document typeautomatic determination unit 6, and parameters for performing the area separation processing are changed based on the result. Then, the area separation processing unit 8 may be configured to determine whether or not the area gradation image area is included and whether or not the area is a specific color.
[0197]
Alternatively, the document typeautomatic discriminating unit 6 determines whether or not the document contains an area gradation image and whether or not the document is of a specific color. This may be performed for the entire original.
[0198]
Further, in the present embodiment, a configuration in which a 13 × 7 area is commonly used as a block has been described. However, the present invention is not limited to this. For example, different sizes are used for document type determination and area separation processing. A configuration using blocks may be used.
[0199]
Furthermore, the configuration of the colorinformation calculation unit 82 and the imagearea determination unit 83 is not limited to the configuration provided in the area separation processing unit 8.
[0200]
[Embodiment 3]
Another embodiment of the present invention will be described below with reference to FIGS. 2, 15 and 16. Note that, in the present embodiment, components having the same functions as the components in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted.
[0201]
FIG. 15 is a diagram illustrating a configuration of a main part of a scanner (image reading apparatus). The scanner includes animage processing unit 15 and the colorimage input device 2, and is connected to thecomputer 16. The colorimage input device 2 is a reading unit of a scanner, and is, for example, a mechanical unit such as a CCD (Charge Coupled Device) or a light source.
[0202]
In the present embodiment, as described below, the combination of theimage processing unit 15 shown in FIG. 15 and theprinter driver 17 in thecomputer 16 shown in FIG. See)).
[0203]
That is, a configuration in which the area gradation image area determination processing and the specific color determination processing are performed on the image data input from thescanner 15 will be described below. In this case, the color correction processing, the spatial filter processing, and the halftone processing are realized as theprinter driver 17.
[0204]
As shown in FIG. 15, thescanner 15 of the present embodiment includes an A /D converter 4, ashading corrector 5, an automaticdocument type discriminator 6, aninput tone corrector 7, and a segmentation processor 8. ing. The reading conditions and operations of thescanner 15 are set and controlled by thecomputer 16. As in the first and second embodiments, the image data read by thescanner 15 is used by the document typeautomatic discriminating unit 6 or the area separation processing unit 8 to determine whether or not the document image includes the area gradation image area, It is determined whether or not the area gradation image area is a specific color, and the result is sent to thecomputer 16 shown in FIG. 16 together with the read RGB signals.
[0205]
As shown in FIG. 16, thecomputer 16 includes aprinter driver 17, acommunication port driver 19, and acommunication port 20.
[0206]
Theprinter driver 17 includes a color correction unit 9, a spatialfilter processing unit 11, a tonereproduction processing unit 13, and a printerlanguage translation unit 18. The color correction unit 9 also performs black generation and under color removal processing.
[0207]
The image data read by thescanner 15 is edited by thecomputer 16 using application software as needed, and the result of the document type discrimination by the document typeautomatic discrimination unit 6 or the area identification generated by the area separation processing unit 8 is used. The signal is input to theprinter driver 17 together with the signal.
[0208]
In theprinter driver 17, the above-described processing is performed on the image data by the color correction unit 9, the spatialfilter processing unit 11, and the gradationreproduction processing unit 13, and the image data is converted into the printer language by the printerlanguage translation unit 18. Then, the image data is input to a colorimage output device 3 such as an electrophotographic or inkjet printer via a communication port driver / communication port (RS232C / LAN, etc.). The printer may be a digital multifunction peripheral having a copy function and a fax function in addition to the printer function.
[0209]
Alternatively, in thescanner 15, the discrimination of the document type and the area separation processing may not be performed, and the processing may be realized by thecomputer 16 as application software.
[0210]
According to the present invention, the image processing method may be recorded on a computer-readable recording medium on which a program to be executed by a computer is recorded. As a result, it is possible to provide a portable recording medium on which a program for performing the image processing method is recorded.
[0211]
In this embodiment, the recording medium may be a program medium such as a memory (not shown) such as a ROM (Read Only Memory), which is processed by a microcomputer. Although not shown, a program reading device may be provided as an external storage device, and may be a program medium readable by inserting a recording medium therein.
[0212]
In any case, the stored program may be configured to be accessed and executed by a microprocessor, or in any case, the program may be read, and the read program may be stored in the microcomputer. Alternatively, the program may be downloaded to a program storage area that is not stored and the program may be executed. It is assumed that the download program is stored in the main unit in advance.
[0213]
Here, the program medium is a recording medium configured to be separable from the main body, such as a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a floppy (registered trademark) disk or a hard disk, or a CD-ROM (Compact Disc). Read only memory (MO), magneto optical (MO), mini-disc (MD), digital versatile disc (DVD), and the like, a card system such as an IC card (including a memory card), an optical card, and a mask ROM. , EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory) ry), a medium that fixedly carries a program including a semiconductor memory such as a flash ROM may be used.
[0214]
Further, in the present embodiment, since the system configuration is such that a communication network including the Internet can be connected, a medium that carries the program in a fluid manner such that the program is downloaded from the communication network may be used. When the program is downloaded from the communication network as described above, the download program may be stored in the main device in advance, or may be installed from another recording medium.
[0215]
The recording medium is read by a program reading device provided in a digital color image forming apparatus or a computer system to execute the above-described image processing method.
[0216]
The computer system displays an image input device such as a flatbed scanner, a film scanner, and a digital camera, a computer on which various processes such as the image processing method are performed by loading a predetermined program, and a processing result of the computer. It is composed of an image display device such as a CRT display and a liquid crystal display, and a printer that outputs the processing results of a computer to paper or the like. Further, a network card, a modem, and the like are provided as communication means for connecting to a server or the like via a network.
[0219]
Further, the present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims, and the technical means disclosed in the different embodiments may be appropriately combined. The obtained embodiments are also included in the technical scope of the present invention.
[0218]
【The invention's effect】
As described above, the image processing apparatus according to the present invention includes an image determination unit that determines whether or not input image data includes area grayscale image data, and a determination that the image determination unit includes area grayscale image data by the image determination unit. And color information calculation means for calculating color information of the input image data obtained.
[0219]
As a result, since color information corresponding to the gradation to be expressed is obtained from the input image data, it is possible to obtain color information including halftone even when the input image data includes area gradation image data. It works.
[0220]
The image processing apparatus of the present invention has a configuration in which an image determination unit and a color information calculation unit are provided in a document type determination unit that determines a type of a document corresponding to the input image data based on the input image data.
[0221]
Thus, the document type determining means can determine the type of the document and determine whether the document is an area gradation document. Therefore, in the case of an area gradation original, it is possible to obtain color information of the original and perform an appropriate process on the entire original.
[0222]
The image processing apparatus according to the present invention has a configuration in which the image determination unit makes a determination based on input data from an operation display unit that can be input by a user.
[0223]
As a result, for example, the type of the document can be easily determined by input from the operation panel (operation display unit), and it is possible to easily determine whether or not the input image data includes area gradation image data.
[0224]
The image processing apparatus according to the present invention includes: an area separating unit that separates and extracts the area of the area gradation image data from the input image data; and, in the area of the area gradation image data extracted by the area separation unit, for each pixel, And color information calculation means for calculating color information for each block composed of a plurality of pixels.
[0225]
This makes it possible to extract the area of the area gradation image data for each pixel or for each block by the area separation processing by the area separation means, and to obtain color information.
[0226]
In the image processing apparatus of the present invention, the color information calculation unit calculates the color information to determine whether or not the area gradation image data is a predetermined specific color, whether the density is a predetermined density, or In this configuration, it is determined whether or not the saturation is a predetermined saturation.
[0227]
Accordingly, for example, when the determination result of the color information calculation unit indicates that the area of the area gradation image data is a specific color such as a flesh color, a specific density, or a specific saturation, By selecting an appropriate method as a process for data (for example, a color correction process, a spatial filter process, a gradation reproduction process, and the like), it is possible to achieve an effect that high image quality can be achieved.
[0228]
The image processing apparatus of the present invention is configured to include a control unit that switches a process for converting the input image data into the output image data by the image processing unit based on the determination result of the color information calculation unit.
[0229]
Thus, based on whether the area gradation image area is a specific color, a specific density, or a specific saturation, color correction processing and black generation and under color removal are performed. Processing contents such as processing, spatial filter processing, and tone reproduction processing can be switched. As a result, there is an effect that appropriate processing can be performed according to the characteristics of the input image data.
[0230]
In the image processing apparatus of the present invention, the image processing unit is a color correction unit that converts the input image data into image data of a color system different from the input image data and performs a color correction process on the input image data. Has a configuration in which the color correction processing is switched for a pixel or a block including a plurality of pixels or for each document based on the determination result of the color information calculation unit.
[0231]
As a result, an effect can be obtained in which an optimum value or a designated color can be converted even for a pixel or a block having an area gradation or the entire document.
[0232]
In the image processing apparatus of the present invention, the image processing unit is a spatial filter unit that performs a spatial filter process on the input image data, and the control unit determines a pixel or a plurality of pixels based on a determination result of the color information calculation unit. The configuration is such that the spatial filter processing is switched for each block or for each document.
[0233]
Thus, in the area gradation image area, it is possible to perform an optimal spatial filter process on a predetermined specific color area, a predetermined specific density area, a predetermined specific saturation area, and the like. It works.
[0234]
In the image processing apparatus according to the present invention, the image processing means is a tone reproduction processing means for performing a process of converting the input image data into a predetermined number of tones, and the control means is configured to execute the processing based on the determination result of the color information calculation means. In this configuration, the tone reproduction process is switched for a pixel, a block including a plurality of pixels, or for each document.
[0235]
Thereby, in the area gradation image region, an optimum gradation reproduction process can be performed on a predetermined specific color region, a predetermined specific density region, a predetermined specific saturation region, and the like. This has the effect.
[0236]
An image reading apparatus according to the present invention includes the above-described image processing apparatus, reads an image from a document, and performs a predetermined process on the read image.
[0237]
Thus, for example, when the area gradation image area is a specific color such as a flesh color, it is possible to perform a memory color process, or to convert the area gradation image area to a color of the area gradation image area or a color designated by a user. There is an effect that an image reading apparatus capable of performing processing can be provided.
[0238]
An image forming apparatus according to the present invention includes an image processing apparatus described above, an image input apparatus that reads an image from a document, and inputs the read image to the image processing apparatus, and output image data that has been processed by the image processing apparatus. And an image output device that forms an image on a recording medium based on the image output device.
[0239]
Thus, for example, when the area gradation image area is a specific color such as a flesh color, an image forming apparatus that performs appropriate color correction processing, spatial filter processing, and gradation reproduction processing to output a high-quality image is provided. It has the effect that it can be done.
[0240]
According to the image processing method of the present invention, a determining step of determining whether or not area image data is included in input image data, and calculating color information of the input image data determined to include area image data And a calculation step.
[0241]
Thus, for example, color information corresponding to the gradation to be expressed is obtained from the input image data, so that even when the input image data includes the area gradation image data, the color information including the halftone can be obtained. . Therefore, there is an effect that the area gradation image data included in the input image data can be appropriately image-processed.
[0242]
The image processing method according to the present invention includes an area separating step of separating and extracting an area of area grayscale image data from input image data, and a plurality of pixels for each pixel in the area of the extracted area grayscale image data. And a calculation step of calculating the color information for each block or for each document.
[0243]
As a result, the area separation processing in the area separation step can extract the area of the area gradation image data for each pixel, for each block, or for each document, and can obtain color information.
[0244]
The image processing method of the present invention calculates color information, and determines whether or not the area gradation image data is a predetermined specific color, has a predetermined density, or has a predetermined density. This is a configuration including a color information determination step of determining whether or not the saturation is high.
[0245]
Accordingly, for example, when the area of the area gradation image data has a specific color such as a flesh color, a specific density, or a specific saturation, processing on the input image data (for example, color correction processing, spatial filter processing, gradation reproduction processing, and the like) By selecting an appropriate method as (), there is an effect that image quality can be improved in an image processing apparatus to which the image processing method is applied.
[0246]
The image processing method of the present invention is configured to switch processing for converting input image data into output image data based on a calculation result of color information of area gradation image data.
[0247]
Thus, for example, color correction processing and black generation based on whether the area gradation image area is a specific color, a specific density, or a specific saturation. Processing contents such as color removal processing, spatial filter processing, and gradation reproduction processing can be switched. Therefore, there is an effect that appropriate processing can be performed according to the characteristics of the input image data.
[0248]
An image processing program according to the present invention is configured to cause a computer to execute the above-described image processing method.
[0249]
Thus, for example, an image processing program of an image processing method capable of determining whether or not a halftone dot region is a specific color and performing appropriate color correction processing, spatial filter processing, and halftone processing is provided to a computer system. By loading, there is an effect that the image processing method can be provided to the user.
[0250]
A computer-readable recording medium according to the present invention has a configuration in which the above-described image processing program is recorded.
[0251]
Thereby, there is an effect that the image processing method can be provided to the user by loading the program recorded on the recording medium into the computer system.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a main part of an automatic document type discrimination unit in an image processing apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a configuration of an image forming apparatus including the image processing apparatus.
FIG. 3 is a flowchart illustrating a part of a document type determination process;
FIG. 4 is a flowchart showing a remaining part of the document type determination process shown in FIG. 3 and a process of determining the presence or absence of a specific color area;
FIG. 5 is a flowchart illustrating an example of a color information calculation process.
FIG. 6 is a diagram illustrating a configuration of a block including a plurality of pixels.
FIG. 7 is a diagram illustrating a configuration of an image processing apparatus according to another embodiment of the present invention.
8 is a flowchart illustrating an example of a method for separating an area gradation image region and determining whether or not a pixel of interest is a specific color in the image processing apparatus illustrated in FIG. 7;
FIG. 9 is a diagram illustrating an example of a configuration of a weighting filter.
FIG. 10 is a flowchart illustrating an example of a color correction process in a color correction unit.
FIG. 11 is a flowchart illustrating an example of a spatial filter process in a spatial filter processing unit.
FIG. 12 is a diagram illustrating an example of the configuration of a weighting filter having a low degree of smoothness.
FIG. 13 is a flowchart illustrating an example of a tone reproduction (halftone) process in a tone reproduction processing unit.
FIG. 14 is a diagram showing a configuration of an error diffusion matrix.
FIG. 15 is a diagram showing a configuration of a main part of an image reading apparatus according to still another embodiment of the present invention.
16 is a diagram showing a configuration of a main part of a computer connected to the image reading apparatus shown in FIG.
FIG. 17 is a block diagram illustrating a configuration of a main part of an automatic document type discrimination unit when a discrimination control unit and a color information calculation unit perform processing in parallel;
[Explanation of symbols]
1 color image processing device (image processing device)
2 Color image input device
3 Color image output device
6 Document type automatic discrimination unit (document type discrimination means)
7 Input tone correction section
8 Area separation processing unit
9. Color correction unit (color correction means, image processing means)
10. Black generation and under color removal unit (image processing means)
11 spatial filter processing unit (spatial filter means, image processing means)
12 Output gradation correction unit
13 gradation reproduction processing unit (gradation reproduction processing means, image processing means)
14 Operation panel (operation display section)
15 Scanner (image reading device)
61 discrimination control unit (image judgment means)
62 color information calculation unit (color information calculation means, input data color information calculation means)
63 Document determination unit (color information calculation means, color information determination means)
81 Separation control unit (image determination means, area separation means)
82 Color Information Calculation Unit (Color Information Calculation Means)
83 Image area determination unit (color information calculation means)
P Original type judgment signal
Q area identification signal