Movatterモバイル変換


[0]ホーム

URL:


JP2004048130A - Image processing method, image processing apparatus, and image processing program - Google Patents

Image processing method, image processing apparatus, and image processing program
Download PDF

Info

Publication number
JP2004048130A
JP2004048130AJP2002199410AJP2002199410AJP2004048130AJP 2004048130 AJP2004048130 AJP 2004048130AJP 2002199410 AJP2002199410 AJP 2002199410AJP 2002199410 AJP2002199410 AJP 2002199410AJP 2004048130 AJP2004048130 AJP 2004048130A
Authority
JP
Japan
Prior art keywords
document
image processing
image
image data
page
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002199410A
Other languages
Japanese (ja)
Inventor
Masahiro Kato
加藤 雅弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co LtdfiledCriticalFuji Xerox Co Ltd
Priority to JP2002199410ApriorityCriticalpatent/JP2004048130A/en
Publication of JP2004048130ApublicationCriticalpatent/JP2004048130A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

<P>PROBLEM TO BE SOLVED: To provide a correction processing means of original image data which is capable of obtaining only a correction result giving an impression to a user that the result is desirable for the user. <P>SOLUTION: It is judged whether image data is a picture page in which almost all of an original is a photograph or a picture or a page other than that on the basis of the characteristics of image data. When the image data is judged to be an original of a picture page, image correction processing for a picture/photograph is applied to the all of the image data. When the image data is judged not to be the original of a picture page, image correction processing for a document original is applied to the all of the image data. <P>COPYRIGHT: (C)2004,JPO

Description

Translated fromJapanese

【0001】
【発明の属する技術分野】
本発明は、スキャナやデジタルカメラなどにより取得された画像データに対し、ファイリングや複写といった再利用を前提として画像補正処理を実施する画像処理方法、画像処理装置および画像処理プログラムを記録した媒体に関する。
【0002】
【従来の技術】
近年、オフィスや家庭を取り巻くネットワーク環境が急速に発達しており、情報の伝達や蓄積する手段として電子データ化された文書が広く用いられている。このような環境下において、ワードプロセッサなどの電子文書作成手段によりあらかじめ電子的に作成された文書だけでなく、新聞や雑誌などの紙面上の文書をも一元的に扱いたいというニーズが高まっている。これを実現する最も基本的な手段として、紙面上の文書情報を画像データとしてイメージスキャナなどを用いて光学的に取得することが知られている。
【0003】
光学的に取得された画像データに対して、従来からファイリングや複写といった再利用を前提に、利用者にとって見やすい印象を与えるよう様々な画像補正処理が適用されている。
【0004】
例えば、画像データに文字が存在する場合には、当該部分に精細度補正処理を行うことで文字の先鋭度を高め、利用者の目にくっきりと読みやすい文字としたり、写真や絵柄が存在する場合には当該部分において明度、彩度補正処理を行うことで利用者が好ましいと感じるような画像データへ変換するような処理を実施することが可能である。
【0005】
また、スキャナにより画像データを取得する際、原稿台の上に原稿が傾いた状態で置かれたために、取得した画像データも傾いてしまったり、冊子など厚みのある原稿を対象とした場合などで比較的発生しやすい現象として、原稿範囲外の領域が画像データの一部として取得されてしまうことで余分な要素(原稿端から画像端にかけての枠状に現れる領域など)が写り込み、利用者にとって見づらい画像データとなってしまった場合でも、これらを補正するような画像処理を適用することが可能である。
【0006】
一般に、原稿にレイアウトされた文字領域と写真/絵柄領域がそれぞれ明確に分離している場合には、レイアウト解析などの公知の技術を用いることで自動的にそれぞれの領域を特定し、特定した領域毎に最適な画像補正処理を実施することができる。
【0007】
レイアウト解析の例として、例えば特開平9−91450号公報では、取得した画像データについて二値化処理を実施し画素の連結性を調べ、連結している画素同士をひとつの領域として抽出し、その位置や大きさ等の特徴量を利用して領域の属性を識別する技術が開示されている。この方式の場合、前処理として二値化を行なっているため、写真等の中間的な濃度値を含んだ領域を正確に抽出することが困難であるが、この技術を拡張したものとして特開平11−252360号公報では、多値画像を複数枚の二値画像に変換し、各々の二値画像に対してレイアウト解析を行うことにより、写真等の中間的な濃度値を含んだ領域を正確に抽出する技術が開示されている。
【0008】
前記で挙げた技術などにより文字領域を正確に特定できれば、文字を構成する画素に基づいて原稿の傾き角度を検出することが可能となるため、取得した画像データの傾き補正も可能となる。例えば特開平7−192085号公報では、二値化された画像データにおいて、黒画素の連結成分を検出し、検出した連結成分のうち文字を構成する連結成分を抽出、抽出した連結成分のうち近接する連結成分同士を結合し仮の文字行として推定した後、推定した仮の文字行に対して水平方向及び垂直方向からそれぞれ所定の角度だけ傾いた直線に接する最も外側の輪郭点を検出、これらの位置関係から仮の文字行の傾きを算出、各々の仮の文字行から傾き角度を参照し画像データの傾き角を求める技術が開示されている。
【0009】
さらに、前記のように原稿の各領域の特定が正しく行われているのであれば、前記冊子など厚みのある原稿をスキャナで取得した際に発生する、原稿端から画像端にかけての枠状の領域など、本来原稿としては不要な成分を、取得した画像データから削除するような補正も可能である。
【0010】
【発明が解決しようとする課題】
しかしながら実際には雑誌の表紙や広告など、文字や写真/絵柄が複雑に重なり合うレイアウト構造を持つ原稿も少なくなく、このような原稿から生成した画像データに対して、前記特開平11−252360号公報に記載されているような矩形による領域識別を行うと、領域が不自然に分割されたり、誤った分割結果を得たりする恐れがある。そのような領域識別結果に基づいて局所的に前記文字の精細度補正処理や写真/絵柄の明度、彩度補正処理を施すと、逆に利用者にとって見づらい画像データとなる恐れがある。
【0011】
さらに領域識別結果の信頼性が低い場合には、前記特開平7−192085号公報に記載されているような技術を用いて原稿の傾き角度を検出したとしても、やはり検出された傾き角度自体の精度が低いものになると予想され、結果として利用者に対し不本意な補正結果を導く恐れがある。特に、格納されている画像データをディスプレイ上に表示して閲覧することが主な利用法であるケースでは、原稿の微妙な傾きでさえ気になるなど、用途によっては、多少でも不完全な領域識別手段を用いて前記補正処理を実施するのであれば、むしろ補正処理を実施しない方がよいことも少なくない。
【0012】
原稿の傾きを補正する場合、原稿にレイアウトされた文章や写真/絵柄等の領域を識別しなくても適用が可能な方式がある。例えば特開平7−311814号公報では、画像データを複数のブロックに分割し、分割した各ブロックのデータに対して、各試行回転角で座標回転したディスクリート・コサイン変換を行うRDCT処理を行い、該RDCT処理により変換された係数を評価関数に基づき評価値を算出し、複数の試行回転角に対して得られる複数の評価値に基づき、評価値の最小または最大のピークに対応するピーク試行回転角を算出し、該ピーク試行回転角を原稿画像の傾き角として推定する技術が開示されている。
【0013】
しかし、これら原稿のレイアウトに依存しない方式は、あらかじめ原稿が文章主体であることがわかっているような場合には有効であるが、仮に原稿の全体が写真/絵柄であるような画像データに適用すると、場合によっては原稿の傾き角度として誤った値を導いてしまい、やはり利用者に対し不本意な補正結果となる恐れがある。一般的に、原稿の傾き角度算出が困難であるような画像に対しては、はじめから傾き補正処理を実施しない方がよいことも少なくない。
【0014】
本発明は前記の事情に鑑みてなされたものであり、利用者にとって好ましいと印象づける補正結果のみが得られる原稿画像データの補正処理手段の提供を目的とする。
【0015】
【課題を解決するための手段】
上述の目的を達成するための本発明は、画像データとして入力された原稿に対して、所定の画像処理を実施する画像処理方法であって、前記原稿が、当該原稿のほぼ全体が絵柄または写真で占められた絵柄ページであるのか、あるいは前記絵柄ページ以外の非絵柄ページであるのかを判定する絵柄ページ判定ステップと、当該絵柄ページ判定ステップによる判定結果に基づいて、絵柄ページと非絵柄ページとで、前記画像データ全体に対してそれぞれ異なる画像処理を実施する画像処理ステップと、を備える。
【0016】
望ましくは、前記画像処理方法は、前記絵柄ページ判定ステップにおいて、前記画像データとして入力された原稿が絵柄ページであると判定されたとき、当該画像データに絵柄または写真向けの画像処理を実施する。
【0017】
また、望ましくは、前記画像処理方法は、前記絵柄ページ判定ステップにおいて、前記画像データとして入力された原稿が非絵柄ページであると判定されたとき、当該画像データに対して文書原稿としての属性を判定する文書原稿属性判定ステップと、前記文書原稿属性判定ステップにより判定された文書原稿属性に基づいて、当該画像データに適用する文書向け画像処理を選択する文書原稿画像処理選択ステップと、を更に有する。
【0018】
また、望ましくは、前記画像処理方法は、前記文書原稿属性判定ステップにより判定された文書原稿属性に基づいて、前記文書原稿画像処理選択ステップで選択された文書向け画像処理の各種パラメータを決定するパラメータ決定ステップを更に有する。
【0019】
また、望ましくは、前記画像処理方法は、前記文書原稿画像処理選択ステップにより複数の画像処理が選択された場合に、前記文書原稿属性に基づいて、前記複数の画像処理の実施順序を決定する画像処理順序決定ステップを更に有する。
【0020】
また、望ましくは、前記画像処理方法は、前記画像処理順序決定ステップにより決定された画像処理順序を、選択された文書向け画像処理の各種パラメータに反映させる処理順序型パラメータ調整ステップとを、更に有する。
【0021】
また、望ましくは、前記文書原稿画像処理選択ステップは、前記画像データの回転処理を文書向け画像処理として選択可能であることを含む。望ましくは、前記文書原稿画像処理選択ステップは、前記画像データとして入力された原稿から不要な領域の除去処理を文書向け画像処理として選択可能であることを含む。
【0022】
本発明は、画像データとして入力された原稿に対して、所定の画像処理を実施する画像処理装置であって、前記原稿が、当該原稿のほぼ全体が絵柄または写真で占められた絵柄ページであるのか、あるいは前記絵柄ページ以外の非絵柄ページであるのかを判定する絵柄ページ判定手段と、前記絵柄ページ判定手段において、前記画像データとして入力された原稿が絵柄ページであると判定された場合に、当該画像データ全体に絵柄または写真向けの画像処理を実施する絵柄画像処理手段と、前記絵柄ページ判定手段において、前記画像データとして入力された原稿が非絵柄ページであると判定された場合に、当該画像データに対して文書原稿としての属性を判定する文書原稿属性判定手段と、前記文書原稿属性判定手段により判定された文書原稿属性に基づいて、当該画像データ全体に所定の文書向け画像処理を実施する文書画像処理手段と、を備える。
【0023】
望ましくは、前記画像処理装置は、前記画像処理選択手段により複数の画像処理が選択された場合に、前記文書原稿属性に基づいて、前記複数の画像処理の実施順序を決定する。
【0024】
また、望ましくは、前記画像処理装置は、前記画像処理選択手段により選択された画像処理の実施順序を決定する画像処理順序決定手段を更に有する。
【0025】
本発明は、画像データとして入力された原稿に対して、所定の画像処理を実施する画像処理プログラムを記録した媒体であって、このプログラムは、コンピュータに、前記原稿が、当該原稿のほぼ全体が絵柄または写真で占められた絵柄ページであるのか、あるいは前記絵柄ページ以外の非絵柄ページであるのかを判定し、前記画像データとして入力された原稿が絵柄ページであると判定された場合に、当該画像データ全体に絵柄または写真向けの絵柄画像処理を実施し、前記画像データとして入力された原稿が非絵柄ページであると判定された場合に、当該画像データに対して文書原稿としての属性を判定し、文書原稿属性の判定結果に基づいて、当該画像データ全体に所定の文書向け画像処理を実施する。
【0026】
望ましくは、前記媒体に記録された画像処理プログラムは、前記文書原稿属性の判定結果に基づいて、選択された文書向け画像処理の各種パラメータを決定する。
【0027】
また、望ましくは、前記媒体に記録された画像処理プログラムは、複数の文書向け画像処理が選択された場合に、前記文書原稿属性に基づいて画像処理の実施順序を決定する。
【0028】
【発明の実施の形態】
本発明の実施形態について、図面を参照して詳細に説明する。
【0029】
[1] 実施形態の画像処理装置の構成例
図1に本発明の実施形態である画像処理装置の構成例を示す。画像処理装置100は、画像処理装置100全体を制御するためのCPU101と、画像処理装置100の内部バスの制御を行うバスコントローラ102と、後述の画像蓄積部110に蓄積されている画像データに基づいて各種表示を行うCRT103と、CRT103を制御するためのCRTコントローラ104と、各種データを入力するためのマウスやデジタイザなどのポインティングデバイスやキーボード等を含む操作部105と、操作部105とバスとの間のインターフェース動作を行うインターフェース部106と、制御用プログラムあるいは制御用データなどを記憶するROM107と、各種データを一時的に記憶するためのRAM108と、ダイレクトメモリアクセスコントロールを行うためのDMAコントローラ109と、を備える。
【0030】
さらに画像処理装置100は、原稿の画像データなどの各種画像データを蓄積するための画像蓄積部110と、画像蓄積部110に蓄積されている画像の特性などを判定するための画像判別部111、画像補正処理を行う画像補正部112と、画像原稿を読み取って画像データを生成するためのスキャナ113と、画像出力を行うための電子写真方式やインクジェット方式のプリンタ114と、スキャナ113と内部バスとの間のインターフェース動作を行うインターフェース部115と、プリンタ114と内部バスとの間のインターフェース動作を行うインターフェース部116と、ネットワーク118と画像処理装置100との間のインターフェース動作を行うインターフェース部117と、を備えて構成されている。
【0031】
この場合において、CPU101及びバスコントローラ102は操作部105を介して操作者が対話入力を行うことにより他の構成部を制御している。前記構成において、操作者は、例えばスキャナ113で原稿画像を読込み、画像蓄積部110に格納した後、CRT103に表示させながら操作部105を通じて所望の画像を選択し、選択した画像に対して画像補正部112で補正処理を実施した後、ネットワーク118へ送信したりする等の画像処理を行う。また、ネットワーク118から入手した画像データを画像蓄積部110に格納し、格納したすべての画像データの属性を画像判別部111で判別、判別結果に従い画像補正部112で補正処理を施した後、再び画像蓄積部110に格納したり、プリンタ114から出力するような処理も可能である。
【0032】
[2] 実施形態の動作
次に図1及び図2のフローチャートに従って、本発明の実施形態における動作について詳細に説明する。まず、処理対象となる原稿の画像データはバスを介して入力され、画像蓄積部110に一旦格納される。ここで画像データの入力は例えばスキャナ113で原稿を走査入力してもよいし、あるいはネットワーク118の通信手段を経由して入手しても良い。画像蓄積部110では、それらの入力画像は例えば、BGR各色8ビット/画素の形式で蓄積格納される(S101)。画像判別部111では、画像蓄積部110に格納されている画像データの特性に基づき原稿のほぼ全面が絵柄または写真である絵柄ページか、それ以外のページであるのかを判定する絵柄ページ判定処理を実施する(S102)。ステップS102の判定において、画像データが絵柄ページの原稿であると判定された場合には(ステップS103;Yes)、画像蓄積部110に格納されている対象画像は画像補正部112に送られ、画像補正部112において絵柄/写真原稿向け画像補正処理が実施される(S104)。ステップS102の判定において、画像データが絵柄ページの原稿ではないと判定された場合には(ステップS103;No)、画像蓄積部110に格納されている対象画像は画像補正部112に送られ、画像補正部112において文書原稿向け画像補正処理が実施される(S105)。ステップS104またはステップS105において画像データに対し各種補正処理が実施された後、補正された画像データが出力される(S106)。ステップS106における画像データの出力先としては、プリンタ114でもよいし、ネットワーク118の通信手段を経由して他のプリンタやストレージ手段でもよい。あるいは画像蓄積部110に格納され、必要に応じてCRT103により表示させてもよい。
【0033】
[2.1] 絵柄ページ判定処理の動作
図2のフローチャートにおいて、ステップS102で実施する絵柄ページ判定処理について詳細に説明する。本発明における絵柄ページ判定処理として従来のレイアウト解析技術に基づく方式を用いてもよいが、本実施形態では、画像データ対し二値化処理を行って前景(ON画素)と背景(OFF画素)とを分離した二値画像において、主走査方向および副走査方向にON画素を投影した投影ヒストグラムの投影値、および各走査線におけるON画素のラン長に基づいて画像データが絵柄ページであるのか、またはそれ以外のページであるのかを判定する方式を例とする。
【0034】
図3のフローチャート、および図4を用いて絵柄ページ判定手段の動作を詳細に説明する。まず、画像蓄積部110にBGR各色8ビット/画素の形式で格納されている画像データの各画素において輝度値Yを算出する(S201)。本実施形態では、輝度値Yとして以下の式で算出される値を用いている。
【0035】
Y=0.30R+0.59G+0.11B
【0036】
図4(a)は、BGR各色8ビット/画素形式の画像データを、輝度値Yに変換した画像データの例を示している。
【0037】
つぎに、ステップS201で算出した輝度値Yから、画像データにおける各画素のON/OFFを決定する二値化処理を実施する。本実施形態では、注目画素とその周辺画素における平均輝度値をYaveとし、所定の輝度値しきい値をYth1およびYth2としたときに、
Y<Yth1、または、Yave−Y>Yth2
を満足するとき、注目画素をON画素、それ以外をOFF画素として二値化を実施する(S202)。当該二値化処理を実施することにより、主に原稿中の写真や絵柄などではYth1以下の輝度の低い領域がON画素となり、文字においては、背景部とのコントラストが低い場合であってもその輝度値の差がYth2以上確保されていればON画素となる。
【0038】
ステップS202で得られた二値画像に対し、主走査方向および副走査方向の各走査線毎にON画素の数を投影した投影ヒストグラムを作成する(S203)と同時に、各走査線毎のON画素のラン長において最長の値を取得する(S204)。図4(b)は、図4(a)で示す画像データを本実施形態による二値化処理により二値化した画像データと、二値化画像データのON画素(同図では黒画素)を主走査方向および副走査方向に投影した例を示している。
【0039】
いま、原稿の主走査方向のサイズをSizeX、主走査方向におけるn番目の走査線上のON画素投影値をPnh、および最長ラン長をRnhとしたとき、
Pnh>SizeX・Sizeth1、かつ、Rnh>Pnh・Pth1
を満足する場合、当該n番目の主走査方向の走査線は写真または絵柄を含むと判定する。ここで、Sizeth1およびPth1はともに乗数としての所定のしきい値であり、
0<Sizeth1<1、および 0<Pth1<1
である。同様に、原稿の副走査方向のサイズをSizeY、副走査方向におけるn番目の走査線上のON画素投影値をPnv、および最長ラン長をRnvとしたとき、
Pnv>SizeY・Sizeth1、かつ、Rnv>Pnv・Pth1
を満足する場合、当該n番目の副走査方向の走査線は写真または絵柄を含むと判定する。この判定処理を主走査方向および副走査方向のすべての走査線に対し実施し、主走査方向における絵柄または写真を含む走査線の数N1hと、副走査方向における絵柄または写真を含む走査線の数N1vとを取得する(S205)。図4(c)は、副走査方向の投影ヒストグラムにおける投影値Pvと、投影値に対するしきい値SizeY・Sizeth1との関係を示している。この例では、投影区間AとBに含まれる走査線から、絵柄または写真を含む走査線の有無が判定されることになる。
【0040】
つぎに、ステップS203で作成した主走査方向の投影ヒストグラムにおいてON画素が分布する走査線の数をN2h、および副走査方向の投影ヒストグラムにおいてON画素が分布する走査線の数をN2vとして取得する。そして、前記ステップS205で取得した絵柄または写真を含むと判定された主走査方向の走査線数をN1h、および副走査方向の走査線数をN1vとしたとき、
N1h>N2h・Nth1、かつ、N1v>N2v・Nth1
を満足する場合、当該画像データが示す原稿はほぼ全体が写真または絵柄のページであると判定する(S206)。ここで、Nth1は乗数としての所定のしきい値であり、
0<Nth1<1
である。図4(c)の例では、投影区間AとBに属す副走査方向の走査線のすべてが絵柄または写真を含むものであると仮定したとき、N1v=A+Bとなり、ON画素が分布する副走査方向の走査線の数N2vは、N2v=Cとなる。
【0041】
[2.2] 絵柄/写真原稿向け画像補正処理
図2のフローチャートにおいて、ステップS104において実施する絵柄/写真原稿向け画像補正処理について説明する。本発明における当該画像補正処理では、既に公知となっている技術の利用を想定している。本実施形態においては、特開2001−230941号公報に開示されている技術を用いるものとしてその詳細な説明を割愛するが、当該技術によれば、画像データの明度および彩度信号の値に応じて連続的に補正係数を算出しているため、急激な切り替わりなく自然に彩度や明度を強調できるようになるだけでなく、入力画像の特徴に応じて彩度や明度の強調度合いを調整しているため、強調が必要な画像についてのみ的確に強調処理を行うことができ、自然な色合いを保ちながら彩度や明度の補正を施すことが可能である。
【0042】
[2.3] 文書原稿向け画像補正処理
つぎに、図2のフローチャートにおいて、ステップS105において実施する文書原稿向け画像補正処理について説明する。本発明における当該画像補正処理としては既に公知となっている技術を利用してもよいが、本実施形態では原稿全体に対して一様な画像補正処理を適用するため、処理対象である原稿における文字が占める文字領域と絵柄や写真が占める絵柄領域の比率で定義する文字絵柄割合を算出し、算出した文字絵柄割合に基づいて下地除去処理やコントラスト補正処理、精細度補正処理などの画像補正処理を適用する構成とする。本実施形態における文書原稿向け画像補正処理の動作を図5に示すフローチャートを用いて説明する。
【0043】
[2.3.1] 文書原稿の属性判定
まず、画像データについて、文字絵柄割合Rcfを算出する(S301)。ステップS301の詳細を図6に示すフローチャートと図7を用いて説明する。前記ステップS202で得られた原稿の二値画像データにおいて、ON画素の連結画素成分を抽出し、各連結画素成分毎に外接矩形を作成、作成した矩形の高さを当該連結画素成分の高さ、矩形の幅を連結画素成分の幅の値として取得する。取得した外接矩形の面積と外接矩形内の当該連結画素成分のON画素数との比率を矩形密度として算出し、これらに基づいて各連結画素成分にノイズ候補、文字候補、絵柄/写真候補、およびその他の要素という属性を与える(S401)。本実施形態では、n番目の連結画素成分の高さをHn、幅をWn、外接矩形の矩形密度をDnとし、連結画素成分の高さおよび幅に関わる所定のしきい値をSizeth2、Sizeth3(ただし、Sizeth2<Sizeth3)、外接矩形の矩形密度に関わる所定のしきい値をDth1としたとき、
Hn≦Sizeth2、かつ、Wn≦Sizeth2
を満足するような連結画素成分はノイズ候補であると判断し、
Sizeth2<Hn≦Sizeth3、かつ、Sizeth2<Wn≦Sizeth3を満足するような連結画素成分は文字候補であると判断する。さらに、
Sizeth3<Hn、かつ、Sizeth3<Wn、かつ、Dth1≦Dn
を満足するような連結画素成分は絵柄/写真候補であると判断し、これらのどの条件にも当てはまらない連結画素成分はその他の要素と判断する。
【0044】
つぎに、ステップS202で得られた二値画像におけるON画素のうち、ステップS401においてノイズ候補ではないと判断された連結画素成分を構成するON画素について、主走査方向および副走査方向に投影ヒストグラムを作成し、原稿の有効領域を特定する(S402)。当該有効領域は、前記で作成した主走査方向および副走査方向の投影ヒストグラムにおいてON画素が分布する範囲で決定する。図7(a)に示す例では、(Xleft,Yright)と(Xright,Ybottom)で決定される矩形領域を原稿有効領域とする。ただし、本や雑誌などの厚みのある原稿をフラットベットスキャナで取得した際には、原稿端から画像端にかけて枠がついたように不要な成分が写りこんでしまうことがあるため、あらかじめこの影響を軽減するために、決定される有効領域の最大サイズを制限しておいてもよい。
【0045】
つぎに、ステップS402で特定した原稿有効領域を複数のブロックに分割し、前記ステップS401で各連結画素成分に与えた候補属性に基づき各ブロックの属性を決定する(S403)。図7(b)は、原稿の有効領域を複数のブロックに分割した例を示している。各分割ブロックにおいて、存在する連結画素成分の候補属性が唯一であればその候補属性を当該分割ブロックの候補属性とする。分割ブロックにおいて、異なる候補属性を持つ連結画素成分が複数存在する場合、注目ブロックにおいて最大面積を占める外接矩形を持つ連結画素成分の候補属性を、そのブロックの候補属性とする。そして、ステップS403において決定した原稿有効領域内の分割ブロック候補属性に基づき、画像データにおける文字候補ブロックと絵柄/写真候補ブロックの割合をその原稿の文字絵柄割合Rcfとして算出する(S404)。
【0046】
さて、ステップS301で前記のように文字絵柄割合Rcfを算出した後、所定のしきい値Rth1、およびRth2と算出した文字絵柄割合Rcfに基づき、ステップS101で取得した画像データに対して文字主体の原稿(S302;Yes→S304)、および絵柄/写真主体の原稿(S302;No,S303;No→S306)、そしてそれらの中間として文字と絵柄/写真が適度に混在する原稿(S302;No,S303;Yes→S305)という属性を与える。
【0047】
[2.3.2] 文書原稿向け画像補正処理
つぎに前記で分類した原稿の属性に関わらず、原稿の方向を90度、180度、および270度という単位で補正する原稿方向補正処理を実施する(S307)。本実施形態では、既に公知となっている技術の利用を想定している。たとえば特願平10−147620号公報では、文書画像の中の文字領域を言語種毎に抽出し、それぞれの文字領域に含まれる文字パターンを0,90,180,270度の4方向に回転させて各々について先に判定された言語種に適した辞書或は方法で所定数の文字パターンを文字認識を行い、文字認識の結果得た平均類似度の最も高い方向を正立方向と判断し、その正立方向の角度(0,90,180,270度のいずれか)を出力する技術が開示されている。これらの技術を利用し、算出した角度に応じて画像回転処理を実施することで原稿の方向補正処理を実施する。
【0048】
つぎに、ステップS304において画像データが文字主体の原稿であると判定されたもの、およびステップS305において画像データが文字と絵柄/写真が適度に混在する原稿であると判定されたものに対し、数度レベルの原稿の微妙な傾き(スキュー)を補正する原稿スキュー補正処理を実施する(S308)。本実施形態では、ステップS307における原稿方向補正処理と同様に、この処理についても既に公知となっている技術の利用を想定している。たとえば特開平3−213053号公報では、二値画像の黒画素に対し黒画素を含む外接矩形を求め、外接矩形から傾き検知の基準となる点を抽出、この基準点に基づき入力原稿の傾きを算出する技術が開示されている。これらの技術を利用し、算出した角度に応じて画像回転処理を実施することで原稿のスキュー補正処理を実施する。
【0049】
なお、ステップS306で画像データが絵柄/写真主体の原稿であると判定された場合には、ステップS308による原稿スキュー補正処理を実施しない。主な理由として、絵柄/写真が主体の原稿では、前記で例を挙げた公知の技術を用いた場合に、正しく原稿のスキューを検出できない可能性が高いことが挙げられる。
【0050】
ステップS308で原稿のスキュー補正処理を実施した後、ステップS304において画像データが文字主体の原稿であると判定されている場合には、さらに不要成分除去処理を実施する(S309)。本実施形態では、不要成分として例えば微小なノイズや、前記のとおり本や雑誌などの厚みのある原稿をフラットベットスキャナで光学的に取得した際に、原稿端から画像端にかけて枠がついたように写りこんでしまう不要な領域をいう。いうまでもないが不要成分が存在すると、利用者にとって画像データが見づらいものとなってしまう。不要成分の除去手段としては、微小ノイズを対象とした場合、例えば図6に示すフローチャートにおいてステップS401で属性を判定した二値画像の連結画素成分のうち、ノイズ候補と判断される連結画素成分を構成する画素において、対応する画像データの画素が持つRGBの値を、その周囲の画素が持つ値で置き換えるなどの手法が考えられる。また、原稿端から画像端にかけて発生する枠状の不要成分を対象とした場合、上下左右の画像端部から所定の画像サイズに関わるしきい値Sizeth4で特定される一定幅の範囲内に、前記ステップS401で文字候補以外と判定された連結画素成分が包含されるように存在する場合、当該連結画素成分を不要成分とみなし、対応する画像データの画素が持つRGBの値を、特定の値、たとえば白色に置き換えるなどの手法が考えられる。
【0051】
なお、ステップS305で画像データが文字と絵柄/写真が適度に混在する原稿と判定された場合、およびステップS306で画像データが絵柄/写真主体の原稿であると判定された場合には、ステップS309における不要成分除去処理を実施しない。主な理由として、これらの原稿においては、公知の技術で原稿中にレイアウトされている絵柄/写真領域と不要成分とを明確に区別することが困難であることが挙げられる。
【0052】
さて、ステップS304において画像データが文字主体の原稿であると判定されたものについては、ステップS309において画像データの不要成分除去処理を実施した後、下地かぶりや原稿裏面の画像の映し出しを除去することを目的に下地除去処理を実施する(S309)。例えば、新聞紙面などをスキャナによりBGR各色8ビット/画素形式の画像データとして取得した場合、文字以外の背景部は実際の紙面と比較して見た目以上にグレイがかってしまうことがある。これは、原稿として高級印刷や写真のプリント等におけるように光を透過させにくい厚みのある紙がある反面、新聞紙などのように比較的光を透過させやすい紙でプラテンカバー裏の影響による下地かぶりが発生したり、原稿の裏面に画像がある場合にその裏面の画像が表面に映し出されてしまうことがあるためである。これらは原稿を読み難くする要因であることから、やはり補正処理を実施することが望ましい。本実施形態では、特開平5−207280号公報で開示されている技術を用いるものとしてその詳細な説明を割愛するが、本技術によれば、原稿の下地レベルを検出する下地検出手段、検出した下地レベルのデータに基づいて補正データを一次関数で近似して求めるデータ補正手段を備えることにより、プリスキャンにて原稿の下地レベルを検出して補正データを求め、該補正データにより色変換手段のパラメータを変更することで、下地かぶりや原稿裏面の画像の映し出しを除去する。
【0053】
つぎに、ステップS310で画像データの下地除去処理を実施した後、輝度コントラスト補正処理を実施する(S311)。一般に、アプリケーションソフトウェアにより作成された電子文書は、スキャナにより取得された画像データに比べコントラストが高く、両者をディスプレイに表示させて閲覧するような用途では、特に後者のコントラストの低さが目につくことがあり、やはり補正処理を実施することが望ましい。本実施形態では、特開平10−283470号公報で開示されている技術を用いるものとしてその詳細な説明を割愛するが、本実施形態では、前記ステップS201で算出した画像データの輝度値Yについてのヒストグラムを作成し、作成した輝度ヒストグラムからその特徴量として平均輝度値Yave2を算出する。つぎに、算出した平均輝度値Yave2と所定の輝度値に関わるしきい値Yth3とを比較することで、画像データが明るめの画像なのか暗めの画像なのかを判断し、明るめであれば画像データを暗くするように、暗めであれば明るくするような補正データを生成する(すなわち、補正後の画像データの平均輝度値がしきい値Yth3側へ近づくような補正データを生成する)。この補正データを用いて、階調変換を行うと同時にコントラスト補正効果を実現する。
【0054】
つぎに、ステップS311で輝度コントラストの補正処理を実施した後、スキャナによる画像データ取得の際に発生するエッジ部のなまりを補正する(S312)。本処理についても、前記他の補正処理と同様、既に公知となっている技術の利用を想定している。本実施形態では、一般的にも広く用いられているアンシャープネスマスクフィルタを用いて精細度補正を実施することとする。この際、画像の解像度に合わせてマスクのサイズを変更したり、フィルタの係数を変更するなど文字の読みやすさに重点を置いたパラメータ設定を実施することで、より好ましい補正結果を得ることができる。以上の工程により、ステップS304で文字主体の原稿のものであると判定された画像データに対する補正処理を終了する。
【0055】
一方、ステップS305で画像データが文字と絵柄/写真が適度に混在する原稿と判定された場合、およびステップS306で画像データが絵柄/写真主体の原稿であると判定された場合には、ステップS304で文字主体の原稿のもであると判定された画像データに対する補正とは逆に、輝度コントラストの補正処理を実施(S313)した後、下地除去処理を実施する(S314)。なぜなら、絵柄/写真領域が原稿の有効領域に占める割合が大きくなると、当然ながら文字領域の補正に傾倒した処理形態よりも、文字領域と絵柄領域がバランスよくきれいに見えるような処理形態の方が望ましいからである。ステップS310で実施する下地除去処理は、下地かぶりや原稿裏面の画像の映し出しを除去するために実施するわけではあるが、一般的に写真/絵柄では背景の下地に近いハイライトの再現も重視されており、仮に画像データが全体的に明るめである場合にはこのハイライト部分の再現性が大きく失われてしまい、利用者にとって不本意な補正結果となる可能性がある。そこで、あらかじめ前記コントラスト補正を実施しておき適正な階調を得た上で、前記下地除去処理を実施する構成としている。このような構成とすることで、画像によっては多少文字領域の下地が除去しきれずに残ることがあるものの、絵柄/写真領域においては過度にハイライト部が消失してしまうこともなく、原稿全体として捉えたときに文字領域と絵柄/写真領域でバランスのよい補正結果を得ることができる。逆にいえば、画像データが文字主体である原稿である場合には、確実に下地かぶりや原稿の裏画像の映し出しを除去するために、図5に示すような処理構成が適しているといえる。以上のように、下地除去処理と輝度コントラスト補正処理により得られる効果はトレードオフの面があるものの、ステップS301で算出した文字絵柄割合Rcfを利用することにより、これら補正処理の適切な効果を引き出すことができる。
【0056】
なお、ステップS310とステップS314における下地除去処理においてそれぞれ異なるパラメータを設定したり、さらにはステップS314だけに着目したとき画像データがステップS305で文字と絵柄/写真が適度に混在する原稿と判定された場合と、ステップS306で絵柄/写真主体の原稿であると判定された場合にそれぞれ異なるパラメータを設定したりすることで、より好ましい補正結果を得ることができる。同様に、ステップS311とステップS313における輝度コントラスト補正処理についても、それぞれ異なるパラメータを設定したり、さらにはステップS313だけに着目したとき画像データがステップS305で文字と絵柄/写真が適度に混在する原稿と判定された場合と、ステップS306で絵柄/写真主体の原稿であると判定された場合にそれぞれ異なるパラメータを設定したりすることで、より好ましい補正結果を得ることができる。
【0057】
つぎに、ステップS314下地除去処理を実施した後、ステップS305で画像データが文字主体の原稿であると判定された場合の処理と同様、スキャナによる画像データ取得の際に発生するエッジ部のなまりを補正する(S312)。ただし、当該処理においても、ステップS304〜S306で判定した原稿の種類に応じて適切にパラメータを設定することで、より好ましい補正結果を得ることができる。以上の工程により、文書原稿向けの画像補正処理を終了する。
【0058】
【発明の効果】
以上説明したように本発明によれば、画像データを文字領域や絵柄領域といった属性毎に分割して補正処理を実施するわけではなく、画像全面に適切な補正処理を一様に実施するため、文章だけのシンプルな原稿から文字や写真/絵柄が複雑にレイアウトされた原稿に至るまで、領域分離処理のエラーに依存する画質的な不具合がなく、たとえ補正効果が小さい場合でも利用者が好ましいと感じる補正結果のみを得ることができる。
【0059】
さらに、画像データのほぼ全面が絵柄/写真である原稿と、それ以外の原稿とで異なる補正処理を実施するため、利用者が絵柄/写真を“観る”ために好ましいと感じる画像補正処理と、文書を“読む”ために好ましいと感じる画像補正処理を的確に使い分けることができる。たとえば文字領域に対しては、精細度補正処理を施すことによって文字のエッジ部分を強調し、くっきりとした読みやすい文字とした方が好まれるのに対し、写真の場合は滑らかな階調を再現するために平滑化処理を施すことによってざらつき感の少ない奇麗な出力が好まれることが知られている。
【0060】
また、領域の属性毎に種類の異なる画像処理を適用したり、そもそも複雑な領域分割処理自体を実施しないため処理にかかる時間が短かくてすみ、ハードウェアの支援を用いなくても、ソフトウェアのみで処理を構成することが可能となる。
【図面の簡単な説明】
【図1】本発明の実施形態における画像処理装置の機能構成を示す図である。
【図2】本発明の実施形態における画像処理装置の全体の動作を示すフローチャートである。
【図3】本発明の実施形態における絵柄ページ判定処理の動作を示すフローチャートである。
【図4】本発明の実施形態における絵柄ページ判定処理に関わる画像処理例を示す図である。
【図5】本発明の実施形態における文書原稿ページ向け画像補正処理の動作を示すフローチャートである。
【図6】本発明の実施形態における文書原稿の属性判定処理の動作を示すフローチャートである。
【図7】本発明の実施形態における原稿の有効領域を特定する処理に関わる画像処理例を示す図である。
【符号の説明】
100 画像処理装置、101 CPU、102 バスコントローラ、103CRT、104 CRTコントローラ、105 操作部、106 インターフェース部、107 ROM、108 RAM、109 DMAコントローラ、110 画像蓄積部、111 画像判別部、112 画像補正部、113 スキャナ、114 プリンタ、115 インターフェース部、116 インターフェース部、117 インターフェース部、118 ネットワーク。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing method, an image processing apparatus, and a medium recording an image processing program for performing image correction processing on image data obtained by a scanner, a digital camera, or the like on the assumption that the image data is reused, such as filing or copying.
[0002]
[Prior art]
In recent years, network environments surrounding offices and homes are rapidly developing, and documents converted into electronic data are widely used as means for transmitting and storing information. Under such an environment, there is a growing need to centrally handle not only documents created electronically in advance by electronic document creation means such as a word processor but also documents on paper such as newspapers and magazines. As the most basic means for realizing this, it is known to optically acquire document information on a paper surface as image data using an image scanner or the like.
[0003]
2. Description of the Related Art Various image correction processes have been conventionally applied to optically acquired image data on the premise of reuse such as filing and copying so as to give a user an easy-to-see impression.
[0004]
For example, when characters are present in the image data, the sharpness of the characters is increased by performing a definition correction process on the corresponding portions to make the characters clear and legible to the user's eyes, or a photograph or a pattern exists. In such a case, it is possible to perform a process of converting the image data into image data that the user perceives as preferable by performing the brightness and saturation correction processes on the relevant portion.
[0005]
Also, when acquiring image data with a scanner, the original is placed on the platen in an inclined state, so the acquired image data may also be inclined, or if the target is a thick original such as a booklet, etc. As a phenomenon that is relatively easy to occur, an extra element (such as an area that appears in a frame shape from the edge of the original to the edge of the image) appears due to the fact that an area outside the original range is acquired as a part of the image data. It is possible to apply image processing to correct these even if the image data becomes hard to see.
[0006]
Generally, when a text area and a photograph / picture area laid out on a document are clearly separated from each other, the respective areas are automatically specified by using a known technique such as layout analysis, and the specified area is specified. Optimal image correction processing can be performed for each time.
[0007]
As an example of the layout analysis, for example, in Japanese Patent Application Laid-Open No. 9-91450, binarization processing is performed on acquired image data to check the connectivity of pixels, and connected pixels are extracted as one region. There is disclosed a technique for identifying an attribute of a region using a feature amount such as a position or a size. In this method, since binarization is performed as preprocessing, it is difficult to accurately extract an area including an intermediate density value such as a photograph. In Japanese Patent Application Laid-Open No. 11-252360, a multi-valued image is converted into a plurality of binary images, and a layout analysis is performed on each of the binary images to accurately determine an area including an intermediate density value such as a photograph. A technique for extracting the information is disclosed.
[0008]
If the character area can be accurately specified by the above-described techniques and the like, the inclination angle of the document can be detected based on the pixels constituting the character, so that the inclination of the acquired image data can be corrected. For example, in Japanese Patent Application Laid-Open No. 7-192085, a connected component of a black pixel is detected in binarized image data, a connected component forming a character is extracted from the detected connected components, and a neighboring component is extracted from the extracted connected components. After connecting the connected components to estimate the provisional character line, the outermost contour points that touch the straight lines inclined by a predetermined angle from the horizontal direction and the vertical direction with respect to the estimated provisional character line are detected. A technique has been disclosed in which the inclination of a temporary character line is calculated from the positional relationship described above, and the inclination angle of image data is obtained by referring to the inclination angle from each temporary character line.
[0009]
Furthermore, if each area of the document is correctly specified as described above, a frame-shaped area from the document edge to the image edge, which is generated when a thick document such as the booklet is acquired by the scanner, is generated. For example, it is also possible to perform a correction such that a component unnecessary for a document is deleted from the acquired image data.
[0010]
[Problems to be solved by the invention]
However, in actuality, there are not a few originals having a layout structure in which characters and photographs / pictures are overlapped in a complicated manner, such as magazine covers and advertisements, and image data generated from such originals is disclosed in Japanese Patent Application Laid-Open No. H11-252360. If the region is identified by a rectangle as described in (1), the region may be unnaturally divided or an incorrect division result may be obtained. If the character fineness correction processing and the lightness / saturation correction processing of a photograph / picture are locally performed based on such an area identification result, image data that is difficult for a user to see may be obtained.
[0011]
Further, when the reliability of the region identification result is low, even if the inclination angle of the document is detected by using the technique described in Japanese Patent Application Laid-Open No. The accuracy is expected to be low, and as a result, there is a possibility that an undesired correction result may be led to the user. In particular, in cases where the main usage is to display and view stored image data on a display, depending on the application, even a slight incomplete area may be a concern, even if the slight inclination of the original is a concern. If the correction processing is performed by using the identification means, it is often better not to perform the correction processing.
[0012]
When correcting the inclination of a document, there is a method that can be applied without identifying an area such as a sentence or a photograph / picture laid out on the document. For example, in Japanese Patent Application Laid-Open No. Hei 7-31814, image data is divided into a plurality of blocks, and RDCT processing is performed on the data of each of the divided blocks to perform discrete cosine transform with coordinate rotation at each trial rotation angle. The coefficient converted by the RDCT process is used to calculate an evaluation value based on an evaluation function, and based on a plurality of evaluation values obtained for a plurality of trial rotation angles, a peak trial rotation angle corresponding to the minimum or maximum peak of the evaluation value. Is calculated, and the peak trial rotation angle is estimated as the inclination angle of the document image.
[0013]
However, these methods that do not depend on the layout of the original are effective when it is known that the original is mainly composed of text, but are applied to image data in which the entire original is a photograph / picture. Then, in some cases, an incorrect value may be derived as the inclination angle of the document, which may result in a correction result unwilling to the user. In general, it is often not desirable to perform the inclination correction process from the beginning for an image for which it is difficult to calculate the inclination angle of the document.
[0014]
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a document image data correction processing unit that can obtain only a correction result that gives an impression to a user as preferable.
[0015]
[Means for Solving the Problems]
The present invention for achieving the above-mentioned object is an image processing method for performing predetermined image processing on a document input as image data, wherein the document has a pattern or a photograph substantially all over the document. A pattern page determination step of determining whether the pattern page is occupied by a pattern page or a non-pattern page other than the pattern page, based on the determination result by the pattern page determination step, a pattern page and a non-pattern page. And an image processing step of performing different image processing on the entire image data.
[0016]
Preferably, in the image processing method, when it is determined in the design page determination step that the document input as the image data is a design page, image processing for a design or a photograph is performed on the image data.
[0017]
Preferably, in the image processing method, when the image input as the image data is determined to be a non-image page in the image page determination step, an attribute of the image data as a document original is determined. The method further includes a document document attribute determining step of determining, and a document document image processing selecting step of selecting a document image process to be applied to the image data based on the document document attribute determined in the document document attribute determining step. .
[0018]
Preferably, the image processing method further comprises a parameter for determining various parameters of the image processing for the document selected in the document original image processing selecting step based on the document original attribute determined in the document original attribute determining step. The method further includes a determining step.
[0019]
Preferably, in the image processing method, when a plurality of image processes are selected in the document document image processing selecting step, an image sequence for determining an execution order of the plurality of image processes is determined based on the document document attributes. The method further includes a processing order determining step.
[0020]
Preferably, the image processing method further includes a processing order type parameter adjusting step of reflecting the image processing order determined in the image processing order determining step to various parameters of the image processing for the selected document. .
[0021]
Preferably, the document original image processing selecting step includes that the rotation processing of the image data can be selected as image processing for a document. Preferably, the document document image processing selection step includes a step of selecting an unnecessary area removal process from the document input as the image data as document image processing.
[0022]
The present invention is an image processing apparatus that performs predetermined image processing on a document input as image data, wherein the document is a picture page in which a substantially entire picture of the document is occupied by a picture or a photograph. Or, or a pattern page determining means to determine whether the non-pattern page other than the pattern page, in the pattern page determining means, when it is determined that the document input as the image data is a pattern page, A pattern image processing unit that performs image processing for a pattern or a photograph on the entire image data, and the pattern page determining unit, when it is determined that the original input as the image data is a non-pattern page, A document original attribute judging unit for judging an attribute of the image data as a document original, and a document judged by the document original attribute judging unit Based on the draft attributes, and a document image processing means for implementing the predetermined document for image processing on entire image data.
[0023]
Preferably, when a plurality of image processes are selected by the image processing selection unit, the image processing device determines an execution order of the plurality of image processes based on the document original attribute.
[0024]
Preferably, the image processing apparatus further includes an image processing order determining unit that determines an execution order of the image processing selected by the image processing selecting unit.
[0025]
The present invention is a medium in which an image processing program for performing predetermined image processing on a document input as image data is recorded. It is determined whether the picture page is a picture page occupied by a picture or a picture, or a non-picture page other than the picture page, and when it is determined that the original input as the image data is a picture page, Performing image processing for a picture or a picture on the entire image data, and when it is determined that the document input as the image data is a non-picture page, determines the attribute of the image data as a document document. Then, based on the determination result of the document original attribute, predetermined image processing for a document is performed on the entire image data.
[0026]
Preferably, the image processing program recorded on the medium determines various parameters of the image processing for the selected document based on the determination result of the document original attribute.
[0027]
Preferably, the image processing program recorded on the medium determines an execution order of the image processing based on the document original attribute when a plurality of image processing for documents is selected.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of the present invention will be described in detail with reference to the drawings.
[0029]
[1] Configuration example of image processing apparatus of embodiment
FIG. 1 shows a configuration example of an image processing apparatus according to an embodiment of the present invention. Theimage processing apparatus 100 is based on aCPU 101 for controlling the entireimage processing apparatus 100, abus controller 102 for controlling an internal bus of theimage processing apparatus 100, and image data stored in animage storage unit 110 described later.CRT 103 for performing various displays on the display, aCRT controller 104 for controlling theCRT 103, anoperation unit 105 including a pointing device such as a mouse and a digitizer for inputting various data, a keyboard, and the like; Aninterface unit 106 for performing an interface operation between the two, aROM 107 for storing a control program or control data, aRAM 108 for temporarily storing various data, and aDMA controller 109 for performing direct memory access control. , Provided.
[0030]
Further, theimage processing apparatus 100 includes animage storage unit 110 for storing various image data such as image data of a document, an image determination unit 111 for determining characteristics of images stored in theimage storage unit 110, and the like. Animage correction unit 112 for performing image correction processing, ascanner 113 for reading an image document to generate image data, an electrophotographic orinkjet printer 114 for performing image output, ascanner 113 and an internal bus. Aninterface unit 115 that performs an interface operation between theprinter 114 and the internal bus; aninterface unit 117 that performs an interface operation between the network 118 and theimage processing apparatus 100; It is configured with.
[0031]
In this case, theCPU 101 and thebus controller 102 control other components by the operator performing interactive input via theoperation unit 105. In the above configuration, the operator reads a document image using, for example, thescanner 113, stores the document image in theimage storage unit 110, selects a desired image through theoperation unit 105 while displaying the image on theCRT 103, and performs image correction on the selected image. After the correction processing is performed by theunit 112, image processing such as transmission to the network 118 is performed. Further, the image data obtained from the network 118 is stored in theimage storage unit 110, the attributes of all the stored image data are determined by the image determination unit 111, and theimage correction unit 112 performs a correction process according to the determination result. Processing such as storage in theimage storage unit 110 and output from theprinter 114 is also possible.
[0032]
[2] Operation of the embodiment
Next, the operation in the embodiment of the present invention will be described in detail with reference to the flowcharts of FIGS. First, image data of a document to be processed is input via a bus and temporarily stored in theimage storage unit 110. Here, the input of the image data may be performed by scanning and inputting the original with thescanner 113 or may be obtained via the communication means of the network 118. In theimage storage unit 110, the input images are stored and stored, for example, in a format of 8 bits / pixel for each color of BGR (S101). The image determination unit 111 performs a pattern page determination process of determining whether a document or page is a design page or a design page on almost the entire surface of a document based on characteristics of image data stored in theimage storage unit 110. This is performed (S102). If it is determined in step S102 that the image data is a picture page document (step S103; Yes), the target image stored in theimage storage unit 110 is sent to theimage correction unit 112, Thecorrection unit 112 performs an image correction process for a picture / photo document (S104). If it is determined in step S102 that the image data is not a document of a picture page (step S103; No), the target image stored in theimage storage unit 110 is sent to theimage correction unit 112, The image correcting process for the document original is performed in the correcting unit 112 (S105). After various correction processes are performed on the image data in step S104 or step S105, the corrected image data is output (S106). The output destination of the image data in step S106 may be theprinter 114 or another printer or storage unit via the communication unit of the network 118. Alternatively, the information may be stored in theimage storage unit 110 and displayed on theCRT 103 as needed.
[0033]
[2.1] Operation of picture page judgment processing
In the flowchart of FIG. 2, the picture page determination process performed in step S102 will be described in detail. Although a method based on a conventional layout analysis technique may be used for the picture page determination processing in the present invention, in the present embodiment, binarization processing is performed on the image data to determine the foreground (ON pixels) and the background (OFF pixels). In the binary image obtained by separating the ON pixels in the main scanning direction and the sub-scanning direction, a projection value of a projection histogram, and whether the image data is a picture page based on the run length of the ON pixels in each scanning line, or A method of determining whether the page is another page is taken as an example.
[0034]
The operation of the picture page determination means will be described in detail with reference to the flowchart of FIG. 3 and FIG. First, the luminance value Y is calculated for each pixel of the image data stored in theimage storage unit 110 in the format of 8 bits / pixel for each color of BGR (S201). In the present embodiment, a value calculated by the following equation is used as the luminance value Y.
[0035]
Y = 0.30R + 0.59G + 0.11B
[0036]
FIG. 4A shows an example of image data obtained by converting image data of each BGR color of 8 bits / pixel format into a luminance value Y.
[0037]
Next, a binarization process for determining ON / OFF of each pixel in the image data from the luminance value Y calculated in step S201 is performed. In the present embodiment, when the average luminance value of the target pixel and its surrounding pixels is Yave, and the predetermined luminance value thresholds are Yth1 and Yth2,
Y <Yth1 or Yave-Y> Yth2
Is satisfied, binarization is performed with the target pixel as an ON pixel and the other pixels as OFF pixels (S202). By performing the binarization process, mainly in a document such as a photograph or a picture, a low-luminance area equal to or lower than Yth1 becomes an ON pixel. If the difference between the luminance values is equal to or greater than Yth2, the pixel becomes an ON pixel.
[0038]
A projection histogram is created by projecting the number of ON pixels for each scanning line in the main scanning direction and the sub-scanning direction on the binary image obtained in step S202 (S203), and at the same time, the ON pixel for each scanning line is created. The longest value of the run length is obtained (S204). FIG. 4B shows image data obtained by binarizing the image data shown in FIG. 4A by the binarization processing according to the present embodiment and ON pixels (black pixels in FIG. 4A) of the binarized image data. An example of projection in the main scanning direction and the sub-scanning direction is shown.
[0039]
Now, when the size of the document in the main scanning direction is SizeX, the ON pixel projection value on the n-th scanning line in the main scanning direction is Pnh, and the longest run length is Rnh,
Pnh> SizeX · Size1 and Rnh> Pnh · Pth1
Is satisfied, it is determined that the nth scanning line in the main scanning direction includes a photograph or a picture. Here, both Size1 and Pth1 are predetermined threshold values as multipliers,
0 <Size1 <1 and 0 <Pth1 <1
It is. Similarly, when the size of the document in the sub-scanning direction is SizeY, the ON pixel projection value on the n-th scanning line in the sub-scanning direction is Pnv, and the longest run length is Rnv,
Pnv> SizeY · Size1 and Rnv> Pnv · Pth1
Is satisfied, it is determined that the nth scanning line in the sub-scanning direction includes a photograph or a picture. This determination process is performed on all the scanning lines in the main scanning direction and the sub-scanning direction, and the number N1h of the scanning lines including the pattern or the photograph in the main scanning direction and the number of the scanning lines including the pattern or the photograph in the sub-scanning direction N1v is obtained (S205). FIG. 4C shows the relationship between the projection value Pv in the projection histogram in the sub-scanning direction and the threshold value SizeY · Size1 for the projection value. In this example, the presence or absence of a scanning line including a picture or a photograph is determined from the scanning lines included in the projection sections A and B.
[0040]
Next, in the projection histogram in the main scanning direction created in step S203, the number of scanning lines in which ON pixels are distributed is acquired as N2h, and in the projection histogram in the sub-scanning direction, the number of scanning lines in which ON pixels are distributed is acquired as N2v. When the number of scanning lines in the main scanning direction determined to include the picture or photograph acquired in step S205 is N1h, and the number of scanning lines in the sub-scanning direction is N1v,
N1h> N2h · Nth1, and N1v> N2v · Nth1
Is satisfied, it is determined that the document indicated by the image data is almost entirely a photograph or picture page (S206). Here, Nth1 is a predetermined threshold value as a multiplier,
0 <Nth1 <1
It is. In the example of FIG. 4C, when it is assumed that all of the scanning lines belonging to the projection sections A and B in the sub-scanning direction include a picture or a photograph, N1v = A + B, and in the sub-scanning direction in which ON pixels are distributed. The number N2v of scanning lines is N2v = C.
[0041]
[2.2] Image correction processing for picture / photo original
In the flowchart of FIG. 2, the image / picture original image correction processing performed in step S104 will be described. In the image correction processing according to the present invention, it is assumed that a known technique is used. In the present embodiment, a detailed description will be omitted assuming that the technology disclosed in Japanese Patent Application Laid-Open No. 2001-230941 is used. However, according to the technology, according to the values of the brightness and the saturation signal of the image data, Since the correction coefficient is calculated continuously, the saturation and brightness can be emphasized naturally without abrupt switching, and the degree of saturation or brightness enhancement can be adjusted according to the characteristics of the input image. Therefore, it is possible to accurately perform enhancement processing only on an image that requires enhancement, and to perform saturation and brightness correction while maintaining a natural color tone.
[0042]
[2.3] Image correction processing for document manuscript
Next, in the flowchart of FIG. 2, the image correction processing for a document original performed in step S105 will be described. A known technique may be used as the image correction processing in the present invention. However, in the present embodiment, since a uniform image correction processing is applied to the entire original, Calculates the character pattern ratio defined by the ratio of the character area occupied by characters to the pattern area occupied by pictures and photos, and performs image correction processing such as background removal processing, contrast correction processing, and fineness correction processing based on the calculated character pattern ratio Is applied. The operation of the image correction processing for a document original in the present embodiment will be described with reference to the flowchart shown in FIG.
[0043]
[2.3.1] Attribute determination of document manuscript
First, a character / picture ratio Rcf is calculated for the image data (S301). Details of step S301 will be described with reference to the flowchart shown in FIG. 6 and FIG. In the binary image data of the document obtained in step S202, connected pixel components of ON pixels are extracted, a circumscribed rectangle is created for each connected pixel component, and the height of the created rectangle is set to the height of the connected pixel component. , The width of the rectangle is obtained as the value of the width of the connected pixel component. The ratio between the acquired area of the circumscribed rectangle and the number of ON pixels of the connected pixel component in the circumscribed rectangle is calculated as a rectangular density, and based on these, a noise candidate, a character candidate, a picture / photo candidate, and An attribute of another element is given (S401). In the present embodiment, the height of the nth connected pixel component is Hn, the width is Wn, the rectangular density of the circumscribed rectangle is Dn, and the predetermined thresholds related to the height and width of the connected pixel component are Size2, Size3 ( However, when a predetermined threshold value relating to the rectangular density of the circumscribed rectangle is set to Dth1, Size2 <Size3),
Hn ≦ Size2 and Wn ≦ Size2
Is determined to be a noise candidate, and
It is determined that a connected pixel component that satisfies Size2 <Hn ≦ Size3 and Size2 <Wn ≦ Size3 is a character candidate. further,
Size3 <Hn, Size3 <Wn, and Dth1 ≦ Dn
Are determined to be picture / photo candidates, and connected pixel components that do not satisfy any of these conditions are determined to be other elements.
[0044]
Next, among the ON pixels in the binary image obtained in step S202, the projection histograms in the main scanning direction and the sub-scanning direction of the ON pixels constituting the connected pixel component determined not to be a noise candidate in step S401. The document is created and an effective area of the document is specified (S402). The effective area is determined in a range where ON pixels are distributed in the projection histograms in the main scanning direction and the sub-scanning direction created as described above. In the example shown in FIG. 7A, a rectangular area determined by (Xleft, Yright) and (Xright, Ybottom) is set as a document effective area. However, when a thick original such as a book or magazine is acquired by a flatbed scanner, unnecessary components may appear in the image from the original end to the image end, as if a frame was attached. In order to reduce the size, the maximum size of the determined effective area may be limited.
[0045]
Next, the document effective area specified in step S402 is divided into a plurality of blocks, and the attribute of each block is determined based on the candidate attribute given to each connected pixel component in step S401 (S403). FIG. 7B shows an example in which the effective area of the document is divided into a plurality of blocks. In each divided block, if there is only one candidate attribute of the connected pixel component, the candidate attribute is set as the candidate attribute of the divided block. When there are a plurality of connected pixel components having different candidate attributes in the divided block, the candidate attribute of the connected pixel component having a circumscribed rectangle occupying the largest area in the target block is set as the candidate attribute of the block. Then, based on the divided block candidate attribute in the document effective area determined in step S403, the ratio of the character candidate block and the pattern / photo candidate block in the image data is calculated as the character / pattern ratio Rcf of the document (S404).
[0046]
After calculating the character / picture ratio Rcf in step S301 as described above, based on the predetermined threshold values Rth1 and Rth2 and the calculated character / picture ratio Rcf, the image data acquired in step S101 is mainly composed of characters. Original (S302; Yes → S304), Original / Picture / Photo original (S302; No, S303; No → S306), and Intermediate between them (S302; No, S303) ; Yes → S305).
[0047]
[2.3.2] Image correction processing for document manuscript
Next, irrespective of the attribute of the document classified as described above, a document direction correction process for correcting the direction of the document in units of 90 degrees, 180 degrees, and 270 degrees is performed (S307). In the present embodiment, it is assumed that a known technique is used. For example, in Japanese Patent Application No. 10-147620, a character region in a document image is extracted for each language type, and a character pattern included in each character region is rotated in four directions of 0, 90, 180, and 270 degrees. The character recognition of a predetermined number of character patterns is performed using a dictionary or method suitable for the language type previously determined for each, and the direction with the highest average similarity obtained as a result of character recognition is determined as the erect direction, A technique for outputting the angle of the erect direction (any one of 0, 90, 180, and 270 degrees) is disclosed. Utilizing these techniques, the image direction correction processing is performed by performing image rotation processing according to the calculated angle.
[0048]
Next, in step S304, the image data is determined to be a document mainly composed of characters, and in step S305, the image data is determined to be a document in which characters and patterns / photographs are appropriately mixed. A document skew correction process for correcting a slight inclination (skew) of the document at the degree level is performed (S308). In the present embodiment, similar to the document direction correction processing in step S307, it is assumed that a known technique is used for this processing. For example, in Japanese Patent Application Laid-Open No. Hei 3-213053, a circumscribed rectangle including black pixels is obtained for black pixels of a binary image, a point serving as a reference for detecting inclination is extracted from the circumscribed rectangle, and the inclination of the input document is determined based on the reference points. A calculation technique is disclosed. Utilizing these techniques, the image skew correction process is performed by performing image rotation processing according to the calculated angle.
[0049]
If it is determined in step S306 that the image data is a document mainly composed of a picture / photo, the document skew correction process in step S308 is not performed. The main reason is that it is highly likely that a document mainly composed of pictures / photos cannot correctly detect the skew of the document when the known technique described above is used.
[0050]
After the skew correction processing of the original in step S308, if it is determined in step S304 that the image data is an original mainly composed of characters, an unnecessary component removing processing is further performed (S309). In the present embodiment, for example, when a thick original such as a book or a magazine is optically acquired by a flatbed scanner as described above, a frame is formed from the original end to the image end as unnecessary components. It is an unnecessary area that is reflected. Needless to say, the presence of the unnecessary component makes it difficult for the user to view the image data. As a means for removing unnecessary components, when minute noise is targeted, for example, among the connected pixel components of the binary image whose attributes are determined in step S401 in the flowchart shown in FIG. In the constituent pixels, a method of replacing the RGB values of the pixels of the corresponding image data with the values of surrounding pixels may be considered. Further, when the target is a frame-like unnecessary component generated from the document end to the image end, the above-described range is within a certain width specified by a threshold Size4 relating to a predetermined image size from the upper, lower, left and right image ends. When the connected pixel component determined to be other than the character candidate in step S401 exists so as to be included, the connected pixel component is regarded as an unnecessary component, and the RGB value of the pixel of the corresponding image data is set to a specific value, For example, a method of replacing the color with white can be considered.
[0051]
If it is determined in step S305 that the image data is a document in which characters and patterns / photographs are appropriately mixed, and if it is determined in step S306 that the image data is a document mainly composed of a pattern / photograph, step S309 is performed. Does not perform the unnecessary component removal processing in. The main reason is that in these manuscripts, it is difficult to clearly distinguish the unnecessary components from the picture / photo regions laid out in the manuscript by a known technique.
[0052]
If the image data is determined to be an original mainly composed of characters in step S304, after removing unnecessary components of the image data in step S309, it is necessary to remove background fogging and projection of an image on the back surface of the original. (S309). For example, when a newspaper page or the like is acquired as image data in the form of 8 bits / pixel for each color of BGR by a scanner, the background portion other than the text may be more gray than the actual page. This is because there are thick papers that do not allow light to pass through, such as high-grade prints and photo prints, as originals. This is because the image on the back side may be displayed on the front side when an image is present on the back side of the document. Since these are factors that make the document difficult to read, it is also desirable to perform the correction processing. In the present embodiment, the detailed description is omitted assuming that the technology disclosed in Japanese Patent Application Laid-Open No. 5-207280 is used. However, according to the present technology, the background detection means for detecting the background level of the document, By providing data correction means for obtaining correction data by approximating the correction data by a linear function based on the data of the background level, the background level of the document is detected by prescan to obtain correction data, and the correction data By changing the parameters, the background fog and the projection of the image on the back side of the document are removed.
[0053]
Next, after performing the background removal processing of the image data in step S310, the luminance contrast correction processing is performed (S311). In general, an electronic document created by application software has a higher contrast than image data acquired by a scanner, and in applications where both are displayed on a display and viewed, the latter contrast is particularly low. In some cases, it is desirable to perform the correction process. In the present embodiment, the detailed description is omitted assuming that the technique disclosed in Japanese Patent Application Laid-Open No. H10-283470 is used. In the present embodiment, the brightness value Y of the image data calculated in step S201 is used. A histogram is created, and an average brightness value Yave2 is calculated from the created brightness histogram as a feature amount. Next, by comparing the calculated average luminance value Yave2 with a threshold value Yth3 relating to a predetermined luminance value, it is determined whether the image data is a bright image or a dark image. Is generated such that the image data becomes darker if the image data becomes darker (that is, correction data is generated such that the average luminance value of the corrected image data approaches the threshold value Yth3). Using this correction data, the gradation conversion is performed and the contrast correction effect is realized at the same time.
[0054]
Next, after performing the brightness contrast correction processing in step S311, the rounding of the edge portion that occurs when the image data is acquired by the scanner is corrected (S312). Also in this processing, as in the other correction processing, it is assumed that a known technique is used. In the present embodiment, fineness correction is performed using an unsharpness mask filter that is generally and widely used. At this time, it is possible to obtain a more preferable correction result by changing the size of the mask in accordance with the resolution of the image, changing the coefficient of the filter, and performing parameter setting with an emphasis on the legibility of characters. it can. Through the above steps, the correction processing for the image data determined to be that of the document mainly composed of characters in step S304 is completed.
[0055]
On the other hand, if it is determined in step S305 that the image data is a document in which characters and patterns / photographs are appropriately mixed, and if it is determined in step S306 that the image data is mainly a pattern / photograph document, step S304 is performed. In contrast to the correction for the image data determined to be a text-based document, the luminance contrast correction processing is performed (S313), and then the background removal processing is performed (S314). This is because, when the ratio of the picture / photograph area to the effective area of the original document increases, a processing mode in which the character area and the picture area look clear and well-balanced is naturally more desirable than a processing mode that is devoted to the correction of the text area. Because. The background removal processing performed in step S310 is performed to remove background fogging and projection of an image on the back side of the document. In general, however, emphasis is also placed on the reproduction of highlights close to the background background in photographs / pictures. Therefore, if the image data is entirely bright, the reproducibility of the highlighted portion is greatly lost, which may result in a correction result unwilling for the user. Therefore, the configuration is such that the contrast correction is performed in advance and an appropriate gradation is obtained, and then the background removal processing is performed. With this configuration, depending on the image, the background of the character area may not be completely removed and may remain, but in the picture / photograph area, the highlight portion is not excessively lost and the entire original is not lost. As a result, it is possible to obtain a well-balanced correction result between the character area and the picture / photograph area. Conversely, if the image data is a document mainly composed of characters, the processing configuration as shown in FIG. 5 can be said to be suitable in order to reliably remove the background fog and the projection of the back image of the document. . As described above, although the effects obtained by the background removal processing and the luminance contrast correction processing have a trade-off aspect, appropriate effects of these correction processings can be obtained by using the character / picture ratio Rcf calculated in step S301. be able to.
[0056]
When different parameters are set in the background removal processing in step S310 and step S314, and when only step S314 is focused on, the image data is determined in step S305 to be a document in which characters and patterns / photographs are appropriately mixed. In this case, and in step S306, when it is determined that the original is mainly a picture / photograph, different parameters are set, thereby obtaining a more preferable correction result. Similarly, for the brightness contrast correction processing in step S311 and step S313, different parameters are set, and when focusing only on step S313, the image data is appropriately mixed with characters and patterns / photos in step S305 in step S305. By setting different parameters, respectively, when it is determined that the original is a picture / photograph original in step S306, it is possible to obtain a more preferable correction result.
[0057]
Next, after performing the background removal processing in step S314, the rounding of the edge portion that occurs when the image data is acquired by the scanner is determined in the same manner as the processing in the case where it is determined in step S305 that the image data is a text-based document. Correction is performed (S312). However, in this process as well, a more preferable correction result can be obtained by appropriately setting parameters according to the type of the document determined in steps S304 to S306. Through the above steps, the image correction processing for the document original is completed.
[0058]
【The invention's effect】
As described above, according to the present invention, correction processing is not performed by dividing image data for each attribute such as a character area and a picture area, and appropriate correction processing is uniformly performed on the entire image. From simple documents with only text to documents with complicated layouts of characters and pictures / patterns, there are no image quality problems that depend on errors in area separation processing, and even if the correction effect is small, it is preferable for the user. Only the correction result that is felt can be obtained.
[0059]
Further, since a different correction process is performed between a document whose image data is almost entirely composed of a picture / photo and another document, an image correction process which is preferable for the user to “see” the picture / photo, It is possible to properly use image correction processing that is preferable for reading a document. For example, in the text area, it is preferable to apply sharpness correction processing to emphasize the edges of the text to make it clear and easy to read, whereas in the case of photographs, smooth gradation is reproduced. It is known that a smooth output with less roughness is preferred by performing a smoothing process.
[0060]
In addition, since different types of image processing are applied to each area attribute, and the complicated area division processing itself is not performed in the first place, the processing time is short, and only software can be used without using hardware support. It is possible to configure the processing.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a functional configuration of an image processing apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating an overall operation of the image processing apparatus according to the embodiment of the present invention.
FIG. 3 is a flowchart illustrating an operation of a picture page determination process according to the embodiment of the present invention.
FIG. 4 is a diagram illustrating an example of image processing related to a picture page determination process according to the embodiment of the present invention.
FIG. 5 is a flowchart illustrating an operation of image correction processing for a document original page according to the embodiment of the present invention.
FIG. 6 is a flowchart illustrating an operation of a document original attribute determination process according to the embodiment of the present invention.
FIG. 7 is a diagram illustrating an example of image processing related to processing for specifying an effective area of a document according to the embodiment of the present invention.
[Explanation of symbols]
Reference Signs List 100 image processing apparatus, 101 CPU, 102 bus controller, 103 CRT, 104 CRT controller, 105 operation unit, 106 interface unit, 107 ROM, 108 RAM, 109 DMA controller, 110 image storage unit, 111 image determination unit, 112 image correction unit , 113 scanner, 114 printer, 115 interface section, 116 interface section, 117 interface section, 118 network.

Claims (14)

Translated fromJapanese
画像データとして入力された原稿に対して、所定の画像処理を実施する画像処理方法であって、
前記原稿が、当該原稿のほぼ全体が絵柄または写真で占められた絵柄ページであるのか、あるいは前記絵柄ページ以外の非絵柄ページであるのかを判定する絵柄ページ判定ステップと、
当該絵柄ページ判定ステップによる判定結果に基づいて、絵柄ページと非絵柄ページとで、前記画像データ全体に対してそれぞれ異なる画像処理を実施する画像処理ステップと、
を備えることを特徴とする画像処理方法。
An image processing method for performing predetermined image processing on a document input as image data,
A pattern page determination step of determining whether the document is a design page in which the whole document is occupied by a design or a photograph, or a non-design page other than the design page;
An image processing step of performing different image processing on the entire image data between a pattern page and a non-pattern page based on the determination result by the pattern page determination step;
An image processing method comprising:
前記絵柄ページ判定ステップにおいて、前記画像データとして入力された原稿が絵柄ページであると判定されたとき、当該画像データに絵柄または写真向けの画像処理を実施することを特徴とする請求項1に記載の画像処理方法。2. The image processing device according to claim 1, wherein in the design page determination step, when it is determined that the document input as the image data is a design page, image processing for a design or a photograph is performed on the image data. 3. Image processing method.前記絵柄ページ判定ステップにおいて、前記画像データとして入力された原稿が非絵柄ページであると判定されたとき、当該画像データに対して文書原稿としての属性を判定する文書原稿属性判定ステップと、
前記文書原稿属性判定ステップにより判定された文書原稿属性に基づいて、当該画像データに適用する文書向け画像処理を選択する文書原稿画像処理選択ステップと、
を更に有することを特徴とする請求項1に記載の画像処理方法。
In the picture page determination step, when the document input as the image data is determined to be a non-picture page, a document document attribute determination step of determining the attribute of the image data as a document document,
A document original image processing selecting step of selecting image processing for a document to be applied to the image data based on the document original attribute determined in the document original attribute determining step;
The image processing method according to claim 1, further comprising:
前記文書原稿属性判定ステップにより判定された文書原稿属性に基づいて、前記文書原稿画像処理選択ステップで選択された文書向け画像処理の各種パラメータを決定するパラメータ決定ステップを更に有することを特徴とする請求項3に記載の画像処理方法。A parameter determining step of determining various parameters of the image processing for the document selected in the document original image processing selecting step based on the document original attribute determined in the document original attribute determining step. Item 4. The image processing method according to Item 3.前記画像処理選択ステップにより複数の画像処理が選択された場合に、前記文書原稿属性に基づいて、前記複数の画像処理の実施順序を決定する画像処理順序決定ステップを更に有することを特徴とする請求項3に記載の画像処理方法。An image processing order determining step of determining an execution order of the plurality of image processings based on the document original attribute when a plurality of image processings is selected in the image processing selecting step. Item 4. The image processing method according to Item 3.前記画像処理順序決定ステップにより決定された画像処理順序を、選択された文書向け画像処理の各種パラメータに反映させる処理順序型パラメータ調整ステップとを、更に有することを特徴とする請求項5に記載の画像処理方法。6. The image processing apparatus according to claim 5, further comprising: a processing order type parameter adjusting step of reflecting the image processing order determined in the image processing order determining step to various parameters of the selected image processing for a document. Image processing method.前記文書原稿画像処理選択ステップは、前記画像データの回転処理を文書向け画像処理として選択可能であることを特徴とする請求項3に記載の画像処理方法。4. The image processing method according to claim 3, wherein in the document document image processing selection step, the rotation processing of the image data can be selected as image processing for a document.前記文書原稿画像処理選択ステップは、前記画像データとして入力された原稿から不要な領域の除去処理を文書向け画像処理として選択可能であることを特徴とする請求項3に記載の画像処理方法。4. The image processing method according to claim 3, wherein in the document document image processing selection step, a process of removing an unnecessary area from the document input as the image data can be selected as a document image process. 5.画像データとして入力された原稿に対して、所定の画像処理を実施する画像処理装置であって、
前記原稿が、当該原稿のほぼ全体が絵柄または写真で占められた絵柄ページであるのか、あるいは前記絵柄ページ以外の非絵柄ページであるのかを判定する絵柄ページ判定手段と、
前記絵柄ページ判定手段において、前記画像データとして入力された原稿が絵柄ページであると判定された場合に、当該画像データ全体に絵柄または写真向けの画像処理を実施する絵柄画像処理手段と、
前記絵柄ページ判定手段において、前記画像データとして入力された原稿が非絵柄ページであると判定された場合に、当該画像データに対して文書原稿としての属性を判定する文書原稿属性判定手段と、
前記文書原稿属性判定手段により判定された文書原稿属性に基づいて、当該画像データ全体に所定の文書向け画像処理を実施する文書画像処理手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that performs predetermined image processing on a document input as image data,
A pattern page determining unit that determines whether the document is a pattern page in which substantially the whole document is occupied by a pattern or a photograph, or a non-pattern page other than the pattern page;
In the design page determination means, when the document input as the image data is determined to be a design page, a design image processing means for performing image processing for a design or photograph on the entire image data,
In the pattern page determination unit, when the document input as the image data is determined to be a non-pattern page, a document document attribute determination unit that determines the attribute of the image data as a document document,
Document image processing means for performing a predetermined document-oriented image processing on the entire image data based on the document document attribute determined by the document document attribute determination means,
An image processing apparatus comprising:
前記画像処理選択手段により複数の画像処理が選択された場合に、前記文書原稿属性に基づいて、前記複数の画像処理の実施順序を決定する画像処理順序決定手段を更に有することを特徴とする請求項9に記載の画像処理装置。An image processing order determining unit that determines an execution order of the plurality of image processes based on the document original attribute when the plurality of image processes is selected by the image processing selecting unit. Item 10. The image processing device according to item 9.前記画像処理選択手段により選択された画像処理の実施順序を決定する画像処理順序決定手段を更に有することを特徴とする請求項9に記載の画像処理装置。The image processing apparatus according to claim 9, further comprising an image processing order determination unit that determines an execution order of the image processing selected by the image processing selection unit.画像データとして入力された原稿に対して、所定の画像処理を実施する画像処理プログラムを記録した媒体であって、
このプログラムは、コンピュータに、前記原稿が、当該原稿のほぼ全体が絵柄または写真で占められた絵柄ページであるのか、あるいは前記絵柄ページ以外の非絵柄ページであるのかを判定し、
前記画像データとして入力された原稿が絵柄ページであると判定された場合に、当該画像データ全体に絵柄または写真向けの絵柄画像処理を実施し、
前記画像データとして入力された原稿が非絵柄ページであると判定された場合に、当該画像データに対して文書原稿としての属性を判定し、
文書原稿属性の判定結果に基づいて、当該画像データ全体に所定の文書向け画像処理を実施する画像処理プログラムを記録した媒体。
A medium recording an image processing program for performing predetermined image processing on a document input as image data,
This program allows the computer to determine whether the original is a design page in which the entire original is occupied by a design or a photograph or a non-design page other than the design page,
When the document input as the image data is determined to be a picture page, a picture image processing for a picture or a photograph is performed on the entire image data,
When the document input as the image data is determined to be a non-picture page, determine the attribute of the image data as a document document,
A medium in which an image processing program for performing image processing for a predetermined document on the entire image data based on a determination result of a document original attribute is recorded.
前記文書原稿属性の判定結果に基づいて、選択された文書向け画像処理の各種パラメータを決定することを特徴とする請求項12に記載の画像処理プログラムを記録した媒体。13. The medium according to claim 12, wherein various parameters of image processing for the selected document are determined based on the determination result of the document original attribute.複数の文書向け画像処理が選択された場合に、前記文書原稿属性に基づいて画像処理の実施順序を決定することを特徴とする請求項12に記載の画像処理プログラムを記録した媒体。13. The medium according to claim 12, wherein, when a plurality of image processing for a document is selected, an execution order of the image processing is determined based on the document original attribute.
JP2002199410A2002-07-092002-07-09Image processing method, image processing apparatus, and image processing programPendingJP2004048130A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2002199410AJP2004048130A (en)2002-07-092002-07-09Image processing method, image processing apparatus, and image processing program

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2002199410AJP2004048130A (en)2002-07-092002-07-09Image processing method, image processing apparatus, and image processing program

Publications (1)

Publication NumberPublication Date
JP2004048130Atrue JP2004048130A (en)2004-02-12

Family

ID=31706552

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2002199410APendingJP2004048130A (en)2002-07-092002-07-09Image processing method, image processing apparatus, and image processing program

Country Status (1)

CountryLink
JP (1)JP2004048130A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2007226314A (en)*2006-02-212007-09-06Seiko Epson Corp Failure image determination device and failure image determination method
JP2007251518A (en)*2006-03-152007-09-27Ricoh Co Ltd Image processing apparatus, image forming apparatus, program, and image processing method
JP2008234067A (en)*2007-03-162008-10-02Ricoh Co Ltd Image forming apparatus and image forming method
JP2010278859A (en)*2009-05-292010-12-09Brother Ind Ltd Image reading apparatus and image forming apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2007226314A (en)*2006-02-212007-09-06Seiko Epson Corp Failure image determination device and failure image determination method
JP2007251518A (en)*2006-03-152007-09-27Ricoh Co Ltd Image processing apparatus, image forming apparatus, program, and image processing method
JP2008234067A (en)*2007-03-162008-10-02Ricoh Co Ltd Image forming apparatus and image forming method
JP2010278859A (en)*2009-05-292010-12-09Brother Ind Ltd Image reading apparatus and image forming apparatus

Similar Documents

PublicationPublication DateTitle
JP5274495B2 (en) How to change the document image size
US6522791B2 (en)Dynamic user interface with scanned image improvement assist
CN110536040B (en)Image processing apparatus for performing multi-cropping processing, method of generating image, and medium
JP2001238074A (en) Image attribute determination method and apparatus
US20090210786A1 (en)Image processing apparatus and image processing method
JP2006014331A (en)Document compression method, system for compressing document, and image processing apparatus
JP2010056827A (en)Apparatus and program for processing image
US20050226503A1 (en)Scanned image content analysis
US9338310B2 (en)Image processing apparatus and computer-readable medium for determining pixel value of a target area and converting the pixel value to a specified value of a target image data
JP4502001B2 (en) Image processing apparatus and image processing method
JP2010074342A (en)Image processing apparatus, image forming apparatus, and program
JP4884305B2 (en) Image processing apparatus, image forming apparatus, computer program, and recording medium
JP3899872B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium recording the same
JP2004048130A (en)Image processing method, image processing apparatus, and image processing program
JP3997696B2 (en) Apparatus, method and recording medium for image processing
JP4710672B2 (en) Character color discrimination device, character color discrimination method, and computer program
JP2009017208A (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and computer-readable recording medium
US7693332B2 (en)Image processing apparatus capable of generating distributable image while maintaining readability and security
JP3423665B2 (en) Area determining method and device
JP2008193234A (en)Image processor, control method of image processor and control program of image processor
JP5549836B2 (en) Image processing apparatus and image processing method
JP2002185791A (en) Image processing apparatus, image processing method, recording medium, and image forming apparatus
KR100537827B1 (en)Method for the Separation of text and Image in Scanned Documents using the Distribution of Edges
KR20140063378A (en)Image forminag apparatus, method for image forming and computer-readable recording medium
JP2004104662A (en) Image forming device

[8]ページ先頭

©2009-2025 Movatter.jp