Movatterモバイル変換


[0]ホーム

URL:


JP2013029925A - Electronic apparatus, sentence edition method and control program - Google Patents

Electronic apparatus, sentence edition method and control program
Download PDF

Info

Publication number
JP2013029925A
JP2013029925AJP2011164343AJP2011164343AJP2013029925AJP 2013029925 AJP2013029925 AJP 2013029925AJP 2011164343 AJP2011164343 AJP 2011164343AJP 2011164343 AJP2011164343 AJP 2011164343AJP 2013029925 AJP2013029925 AJP 2013029925A
Authority
JP
Japan
Prior art keywords
character
image
contact
detected
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011164343A
Other languages
Japanese (ja)
Other versions
JP5757815B2 (en
Inventor
Tomohiro Sudo
智浩 須藤
Nayu Nomachi
那由 能町
Atsuo Chiba
敦夫 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera CorpfiledCriticalKyocera Corp
Priority to JP2011164343ApriorityCriticalpatent/JP5757815B2/en
Publication of JP2013029925ApublicationCriticalpatent/JP2013029925A/en
Application grantedgrantedCritical
Publication of JP5757815B2publicationCriticalpatent/JP5757815B2/en
Expired - Fee Relatedlegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Landscapes

Abstract

Translated fromJapanese

【課題】文章を容易に編集することができる電子機器、文章編集方法及び制御プログラムを提供すること。
【解決手段】表示部11と、表示部11に対する接触を検出する検出部12と、検出部12により表示部11に対する接触を検出した場合、当該接触の動作に基づいて、表示部11に表示されている文字又は画像を編集する制御部17を備える。また、制御部17は、表示部11に表示されている文字又は画像に対する接触が検出された場合に、当該接触の動作に基づいて、文字又は画像を異なる文字又は異なる画像に変更、或いは文字又は画像に文字又は画像を追加する。
【選択図】図2
To provide an electronic device, a text editing method, and a control program capable of easily editing a text.
A display unit, a detection unit that detects contact with the display unit, and a detection unit that detects contact with the display unit are displayed on the display unit based on the contact operation. A control unit 17 is provided for editing the character or image being displayed. In addition, when contact with the character or image displayed on the display unit 11 is detected, the control unit 17 changes the character or image to a different character or different image based on the contact operation, Add text or images to the image.
[Selection] Figure 2

Description

Translated fromJapanese

本発明は、文章を編集する機能を有する電子機器、文章編集方法及び制御プログラムに関する。  The present invention relates to an electronic device having a function of editing a sentence, a sentence editing method, and a control program.

様々な種類の電子機器がある中で、近年、文章等が表示されるディスプレイ上に透過性を有するタッチパネルを備えたものが主流となりつつある。  Among various types of electronic devices, in recent years, those equipped with a transparent touch panel on a display on which texts are displayed are becoming mainstream.

このような電子機器では、仮想的なキーボードをディスプレイ上に表示し、表示されているキーが接触されることにより、文字の追加、変更及び削除を行う機能を有している(例えば、特許文献1を参照)。  Such an electronic device has a function of adding, changing, and deleting characters by displaying a virtual keyboard on a display and touching a displayed key (for example, Patent Documents). 1).

特開平10−97531号公報JP-A-10-97531

ところで、このようなタッチパネルを有する電子機器では、文章を容易に編集する技術が求められている。  By the way, in an electronic device having such a touch panel, a technique for easily editing a sentence is required.

本発明は、文章を容易に編集することができる電子機器、文章編集方法及び制御プログラムを提供することを一つの目的とする。  An object of the present invention is to provide an electronic device, a text editing method, and a control program that can easily edit text.

本発明に係る電子機器は、上記課題を解決するために、表示部と、前記表示部に対する接触を検出する検出部と、前記検出部により前記表示部に対する接触を検出した場合、当該接触の動作に基づいて、前記表示部に表示されている文字又は画像を編集する制御部を備え、前記制御部は、前記表示部に表示されている文字又は画像に対する接触が検出された場合に、当該接触の動作に基づいて、前記文字又は前記画像を異なる文字又は異なる画像に変更、或いは前記文字又は前記画像に文字又は画像を追加する構成である。  In order to solve the above problems, an electronic device according to the present invention has a display unit, a detection unit that detects contact with the display unit, and an operation of the contact when the detection unit detects contact with the display unit. A control unit that edits a character or image displayed on the display unit, and the control unit detects the contact when the contact with the character or image displayed on the display unit is detected. On the basis of the operation, the character or the image is changed to a different character or a different image, or a character or an image is added to the character or the image.

また、電子機器では、文字又は画像毎に、当該文字又は当該画像に対する接触の動作に対応して変更、或いは追加する文字又は画像を関連付けたテーブルを記憶する記憶部を備え、前記制御部は、前記表示部に表示されている文字又は画像に対する接触が検出された場合に、接触が検出された文字又は画像に対応するテーブルを前記記憶部から読み出し、当該接触の動作に対応して関連付けられた文字又は画像を前記テーブルから抽出して、接触が検出された文字又は画像を抽出された文字又は画像に変更、或いは接触が検出された文字又は画像に抽出された文字又は画像を追加する構成でも良い。  In addition, the electronic device includes a storage unit that stores a table that associates a character or an image to be changed or added corresponding to an operation of contact with the character or the image for each character or image, and the control unit includes: When a contact with the character or image displayed on the display unit is detected, a table corresponding to the character or image with the contact detected is read from the storage unit and associated with the contact operation. A configuration in which a character or image is extracted from the table and the character or image in which contact is detected is changed to the extracted character or image, or the extracted character or image is added to the character or image in which contact is detected good.

また、電子機器では、前記記憶部は、絵文字毎に、当該絵文字に対する接触の動作に対応して変更、或いは追加する同一カテゴリーに属する絵文字を関連付けたテーブルを記憶し、前記制御部は、前記表示部に表示されている文字に対する接触が検出されて、接触が検出された文字が絵文字であると判定された場合には、当該絵文字に対応するテーブルを前記記憶部から読み出し、当該接触の動作に対応して関連付けられた絵文字を前記テーブルから抽出して、接触が検出された絵文字を抽出された絵文字に変更、或いは接触が検出された絵文字に抽出された絵文字を追加する構成でも良い。  In the electronic device, the storage unit stores, for each pictogram, a table in which pictograms belonging to the same category to be changed or added corresponding to the touch operation on the pictogram are associated, and the control unit includes the display When contact with the character displayed on the part is detected and it is determined that the character with contact detected is a pictogram, a table corresponding to the pictogram is read from the storage unit, and the contact operation is performed. A configuration may be adopted in which pictographs associated with each other are extracted from the table and the pictographs in which contact is detected are changed to the extracted pictographs, or the pictographs extracted are added to the pictographs in which touch is detected.

また、電子機器では、前記記憶部は、文字又は画像毎に、当該文字又は当該画像に対する接触の移動方向に対応して変更、或いは追加する文字又は画像を関連付けたテーブルを記憶し、前記制御部は、前記表示部に表示されている文字又は画像に対する接触が検出された場合に、接触が検出された文字又は画像に対応するテーブルを前記記憶部から読み出し、当該接触の移動方向に対応して関連付けられた文字又は画像を前記テーブルから抽出して、接触が検出された文字又は画像を抽出された文字又は画像に変更、或いは接触が検出された文字又は画像に抽出された文字又は画像を追加する構成でも良い。  In the electronic device, the storage unit stores, for each character or image, a table that associates the character or image to be changed or added in correspondence with the moving direction of the contact with the character or the image, and the control unit When a contact with the character or image displayed on the display unit is detected, a table corresponding to the character or image with the contact detected is read from the storage unit, and the table corresponds to the moving direction of the contact. Extract the associated character or image from the table and change the detected character or image to the extracted character or image, or add the extracted character or image to the detected character or image The structure to do may be sufficient.

また、電子機器では、前記記憶部は、前記表示部に文字が表示されている場合に、接触の移動方向が前記文字の表示方向と順方向の場合には、順接の文字を関連付け、接触の移動方向が前記文字の表示方向と逆方向の場合には、逆接の文字を関連付けたテーブルを記憶し、前記制御部は、前記表示部に表示されている文字に対する接触が検出されて、前記接触の移動方向が前記文字の表示方向と順方向の場合には、前記テーブルに関連付けられている順接の文字を抽出して、接触が検出された文字に抽出された順接の文字を追加し、前記接触の移動方向が前記文字の表示方向と逆方向の場合には、前記テーブルに関連付けられている逆接の文字を抽出して、接触が検出された文字に抽出された逆接の文字を追加する構成でも良い。  Further, in the electronic device, when the character is displayed on the display unit and the moving direction of the contact is the display direction of the character and the forward direction, the storage unit associates the forward character, When the movement direction of the character is opposite to the display direction of the character, a table associating the reversely connected character is stored, and the control unit detects contact with the character displayed on the display unit, and When the moving direction of the contact is the display direction of the character and the forward direction, the forward character associated with the table is extracted, and the extracted forward character is added to the character where the contact is detected. If the moving direction of the contact is opposite to the display direction of the character, the reverse character associated with the table is extracted, and the extracted reverse character is detected as the character from which the contact is detected. A configuration may be added.

また、電子機器では、前記記憶部は、文字又は画像毎に、当該文字又は当該画像に対する接触の軌跡に対応する文字又は画像を関連付けたテーブルを記憶し、前記制御部は、前記表示部に表示されている文字に対する接触が検出された場合に、接触が検出された文字又は画像に対応するテーブルを前記記憶部から読み出し、当該接触の軌跡に対応して関連付けられた文字又は画像を前記テーブルから抽出して、接触が検出された文字又は画像を抽出された文字又は画像に変更、或いは接触が検出された文字又は画像に抽出された文字又は画像を追加する構成でも良い。  In the electronic device, the storage unit stores, for each character or image, a table in which the character or image corresponding to the trajectory of contact with the character or the image is associated, and the control unit displays on the display unit When contact with the touched character is detected, a table corresponding to the touched character or image is read from the storage unit, and the character or image associated with the touch trajectory is read from the table. A configuration may be adopted in which the extracted character or image is changed to the extracted character or image, or the extracted character or image is added to the detected character or image.

また、電子機器では、前記制御部は、前記表示部に表示されている文字又は画像に対する接触が検出されて、記接触の移動が前記文字又は前記画像の表示領域内の接触の移動であると判断した場合には、前記文字又は前記画像を異なる文字又は異なる画像に変更し、前記接触の移動が前記文字又は前記画像の表示領域を超える接触の移動であると判断した場合には、前記文字又は前記画像に文字又は画像を追加する構成でも良い。  Further, in the electronic device, the control unit detects contact with a character or image displayed on the display unit, and the movement of the contact is a movement of contact within the display area of the character or the image. If it is determined, the character or the image is changed to a different character or a different image, and if it is determined that the contact movement is a contact movement exceeding the display area of the character or the image, the character Or the structure which adds a character or an image to the said image may be sufficient.

また、電子機器では、前記制御部は、前記表示部に表示されている文字又は画像に対する接触が検出された場合に、接触が検出された文字又は画像に対していかなる接触の動作が行われれば、前記文字又は前記画像をいずれの文字又はいずれの画像に変更、或いは前記文字又は前記画像にいずれの文字又はいずれの画像を追加するかについての所定のガイド表示を前記表示部に行う構成でも良い。  Further, in the electronic apparatus, when the contact with the character or image displayed on the display unit is detected, the control unit may perform any contact operation on the character or image with the contact detected. The character or the image may be changed to which character or which image, or a predetermined guide display regarding which character or which image is added to the character or the image may be performed on the display unit. .

本発明に係る文章編集方法は、上記課題を解決するために、表示部に対する接触を検出する検出工程と、前記検出工程により前記表示部に対する接触を検出した場合、当該接触の動作に基づいて、前記表示部に表示されている文字又は画像を編集する制御工程を備え、前記制御工程は、前記表示部に表示されている文字又は画像に対する接触が検出された場合に、当該接触の動作に基づいて、前記文字又は前記画像を異なる文字又は異なる画像に変更、或いは前記文字又は前記画像に文字又は画像を追加する構成である。  In order to solve the above problem, the text editing method according to the present invention detects a contact with the display unit, and when detecting a contact with the display unit through the detection step, based on the operation of the contact, A control step of editing a character or an image displayed on the display unit, and the control step is based on an operation of the contact when a contact with the character or image displayed on the display unit is detected. Thus, the character or the image is changed to a different character or a different image, or a character or an image is added to the character or the image.

また、本発明に係る制御プログラムは、表示部に対する接触を検出する検出工程と、前記検出工程により前記表示部に対する接触を検出した場合、当該接触の動作に基づいて、前記表示部に表示されている文字又は画像を編集する制御工程をコンピュータによって実現するための制御プログラムであって、前記制御工程は、前記表示部に表示されている文字又は画像に対する接触が検出された場合に、当該接触の動作に基づいて、前記文字又は前記画像を異なる文字又は異なる画像に変更、或いは前記文字又は前記画像に文字又は画像を追加するプログラムである。  In addition, the control program according to the present invention is displayed on the display unit based on a detection process of detecting a contact with the display unit, and when a contact with the display unit is detected by the detection process. A control program for realizing a control step for editing a character or an image by a computer, wherein the control step detects the contact when the contact with the character or the image displayed on the display unit is detected. A program for changing the character or the image to a different character or a different image or adding a character or an image to the character or the image based on an operation.

本発明によれば、文章を容易に編集することができる。  According to the present invention, a sentence can be easily edited.

携帯電話機の外観を示す図である。It is a figure which shows the external appearance of a mobile telephone.携帯電話機の機能を示す機能ブロック図である。It is a functional block diagram which shows the function of a mobile telephone.携帯電話機により文字を変更又は追加する実施形態の一例についての説明に供する図である。It is a figure with which it uses for description about an example of embodiment which changes or adds a character with a mobile telephone.記憶部に記憶されているテーブルの内容についての一例を模式的に示す図である。It is a figure which shows typically an example about the content of the table memorize | stored in the memory | storage part.記憶部に記憶されているテーブルの内容についての一例を模式的に示す図である。It is a figure which shows typically an example about the content of the table memorize | stored in the memory | storage part.携帯電話機により文字を追加する実施形態の一例についての説明に供する図である。It is a figure where it uses for description about an example of embodiment which adds a character with a mobile telephone.携帯電話機により文字を追加する実施形態の一例についての説明に供する図である。It is a figure where it uses for description about an example of embodiment which adds a character with a mobile telephone.携帯電話機により文字を追加する実施形態の一例についての説明に供する図である。It is a figure where it uses for description about an example of embodiment which adds a character with a mobile telephone.携帯電話機により文字を変更又は追加する実施形態の一例についての説明に供する図である。It is a figure with which it uses for description about an example of embodiment which changes or adds a character with a mobile telephone.携帯電話機により行われるガイド表示についての説明に供する図である。It is a figure where it uses for description about the guide display performed with a mobile telephone.携帯電話機の動作の流れについての説明に供するフローチャートである。It is a flowchart with which it uses for description about the flow of operation | movement of a mobile telephone.携帯電話機により絵文字を変更する実施形態の一例についての説明に供する図である。It is a figure where it uses for description about an example of embodiment which changes a pictograph with a mobile phone.

以下、本発明の実施の形態について説明する。まず、本発明の電子機器の一実施形態に係る携帯電話機1の基本構造について、図1を参照しながら説明する。図1は、本実施形態に係る携帯電話機1の外観斜視図である。  Embodiments of the present invention will be described below. First, the basic structure of amobile phone 1 according to an embodiment of the electronic apparatus of the present invention will be described with reference to FIG. FIG. 1 is an external perspective view of amobile phone 1 according to the present embodiment.

携帯電話機1は、筺体2を備える。筺体2には、正面に、タッチパネル10と、マイク13と、レシーバ14とが配置される。  Themobile phone 1 includes ahousing 2. Atouch panel 10, amicrophone 13, and areceiver 14 are disposed on the front surface of thehousing 2.

タッチパネル10は、表示部11と、検出部12とを備える(図2を参照)。表示部11は、液晶又は有機EL(エレクトロルミネッセンス)で構成される。検出部12は、表示部11に対する携帯電話機1のユーザの指やタッチペン等の物体の接触を検出する。検出部12は、表示部11の表面に対応して配され、例えば、静電容量方式や抵抗膜方式等が利用可能である。  Thetouch panel 10 includes adisplay unit 11 and a detection unit 12 (see FIG. 2). Thedisplay unit 11 is configured by liquid crystal or organic EL (electroluminescence). Thedetection unit 12 detects contact of an object such as a user's finger or a touch pen of themobile phone 1 with respect to thedisplay unit 11. Thedetection unit 12 is arranged corresponding to the surface of thedisplay unit 11, and for example, a capacitance method, a resistance film method, or the like can be used.

マイク13は、携帯電話機1のユーザが通話時に発した音声を入力するために用いられる。レシーバ14は、携帯電話機1のユーザの通話相手が発した音声を出力するために用いられる。  The microphone 13 is used to input a voice uttered by the user of themobile phone 1 during a call. Thereceiver 14 is used to output a voice uttered by a call partner of the user of themobile phone 1.

次に、図2を参照しながら、携帯電話機1の機能構成について説明する。図2は、携帯電話機1の機能構成を示すブロック図である。  Next, the functional configuration of themobile phone 1 will be described with reference to FIG. FIG. 2 is a block diagram showing a functional configuration of themobile phone 1.

携帯電話機1は、上述した、タッチパネル10(表示部11及び検出部12)と、マイク13と、レシーバ14とを備える。さらに、携帯電話機1は、通信部15と、記憶部16と、制御部17とを備える。  Themobile phone 1 includes the touch panel 10 (thedisplay unit 11 and the detection unit 12), themicrophone 13, and thereceiver 14 described above. Furthermore, themobile phone 1 includes acommunication unit 15, astorage unit 16, and acontrol unit 17.

通信部15は、メインアンテナ(図示せず)及びRF回路部(図示せず)等を備える。通信部15は、所定の使用周波数帯で基地局等の外部装置と通信を行う。具体的には、通信部15は、受信した信号を復調処理し、処理後の信号を制御部17に供給する。また、通信部15は、制御部17から供給された信号を変調処理して外部装置(基地局)に送信する。  Thecommunication unit 15 includes a main antenna (not shown), an RF circuit unit (not shown), and the like. Thecommunication unit 15 communicates with an external device such as a base station in a predetermined use frequency band. Specifically, thecommunication unit 15 demodulates the received signal and supplies the processed signal to thecontrol unit 17. In addition, thecommunication unit 15 modulates the signal supplied from thecontrol unit 17 and transmits the modulated signal to an external device (base station).

記憶部16は、例えば、ワーキングメモリを含み、制御部17による演算処理に利用される。また、記憶部16は、携帯電話機1の内部で動作するアプリケーションやデータベースを記憶する。なお、記憶部16は、着脱可能な外部メモリを兼ねていても良い。  Thestorage unit 16 includes, for example, a working memory and is used for arithmetic processing by thecontrol unit 17. Thestorage unit 16 also stores applications and databases that operate inside themobile phone 1. Thestorage unit 16 may also serve as a removable external memory.

制御部17は、携帯電話機1の全体を制御しており、表示部11及び通信部15に対して制御を行う。  Thecontrol unit 17 controls the entiremobile phone 1 and controls thedisplay unit 11 and thecommunication unit 15.

このように構成される携帯電話機1は、文章を容易に編集する機能を有する。以下に、携帯電話機1に係る上記機能を発揮するための構成と動作について詳述する。
なお、本実施例では、文字とは、ひらがな、カタカナ、漢字、英数字、単位記号、ギリシャ文字、絵文字等を含む概念であって、文字コードが割り当てられているものをいう。また、文字とは、単一の文字だけでなく、複数の文字からなる文字列も含む概念である。
また、画像とは、所定の画像フォーマット(例えば、PNGやGIF等)で作成されたデコレーション絵文字等の画像であって、文字コードが割り当てられていないものをいう。また、画像とは、単一の画像だけでなく、複数の画像からなる画像列も含む概念である。
また、文字と画像とは、文字コードが割り当てられているか否かが異なる。
Themobile phone 1 configured as described above has a function of easily editing a sentence. Below, the structure and operation | movement for exhibiting the said function which concerns on themobile telephone 1 are explained in full detail.
In this embodiment, a character is a concept including hiragana, katakana, kanji, alphanumeric characters, unit symbols, Greek characters, pictograms, etc., and is assigned a character code. The character is a concept including not only a single character but also a character string composed of a plurality of characters.
An image refers to an image such as a decoration pictogram created in a predetermined image format (for example, PNG, GIF, etc.), to which no character code is assigned. The image is a concept including not only a single image but also an image sequence including a plurality of images.
Further, the character and the image are different depending on whether or not a character code is assigned.

携帯電話機1は、上述したように、表示部11と、検出部12と、制御部17を備える。検出部12は、表示部11に対する接触を検出する。
制御部17は、検出部12により表示部11に対する接触を検出した場合、当該接触の動作に基づいて、表示部11に表示されている文字又は画像を編集する。さらに、制御部17は、表示部11に表示されている文字又は画像に対する接触が検出された場合に、当該接触の動作に基づいて、文字又は画像を異なる文字又は異なる画像に変更、又は文字又は画像に新たな文字又は画像を追加する。
As described above, themobile phone 1 includes thedisplay unit 11, thedetection unit 12, and thecontrol unit 17. Thedetection unit 12 detects contact with thedisplay unit 11.
When thedetection unit 12 detects contact with thedisplay unit 11, thecontrol unit 17 edits a character or an image displayed on thedisplay unit 11 based on the contact operation. Further, when contact with the character or image displayed on thedisplay unit 11 is detected, thecontrol unit 17 changes the character or image to a different character or different image based on the operation of the contact, or Add new characters or images to the image.

具体的には、制御部17は、表示部11に表示されている文章(図3に示す例では、「・・・、え」)に含まれている文字(図3に示す例では、「え」)に対する接触が検出された場合、当該接触の動作に基づいて、異なる文字に変更(図3に示す例では、「A」)、又は新たな文字を追加する(図3に示す例では、「〜っ」)。なお、本実施例では、文字の変更とは、平仮名から英語等への文字種の変更を想定して説明するが、これに限定されず、同一の文字種間で変更しても良い。  Specifically, thecontrol unit 17 controls the characters (“...” In the example shown in FIG. 3) displayed on the display unit 11 (in the example shown in FIG. 3, “ E)) is detected, the character is changed to a different character (“A” in the example shown in FIG. 3), or a new character is added (in the example shown in FIG. 3). , "~~"). In the present embodiment, the change of characters is described assuming that the character type is changed from hiragana to English, but the present invention is not limited to this and may be changed between the same character types.

よって、携帯電話機1は、文章を入力後に、文字又は画像の変更、又は新たな文字又は画像を追加したい場合に、対象となる文字又は記号に対する接触を行うことにより、容易に文字又は画像の変更又は追加を行うことができる。  Therefore, themobile phone 1 can easily change the character or image by touching the target character or symbol when changing the character or image or adding a new character or image after inputting the text. Or additions can be made.

また、上述では、電子機器の一実施形態に係る携帯電話機1の構成と動作について説明したが、これに限られず、各構成要素を備え、文章を容易に編集するための制御方法や、制御プログラムとして構成されても良い。  In the above description, the configuration and operation of themobile phone 1 according to an embodiment of the electronic device have been described. However, the present invention is not limited thereto, and includes a control method and a control program for easily editing a sentence including each component. It may be configured as.

また、携帯電話機1は、上述したように、記憶部16を備えている。記憶部16は、文字又は画像毎に、当該文字又は当該画像に対する接触の動作に対応して変更、或いは追加する文字又は画像を関連付けたテーブルを記憶する。  In addition, themobile phone 1 includes thestorage unit 16 as described above. Thestorage unit 16 stores, for each character or image, a table in which the character or image to be changed or added is associated with the operation of touching the character or the image.

このような構成では、制御部17は、表示部11に表示されている文字又は画像に対する接触が検出された場合に、接触が検出された文字又は画像に対応するテーブルを記憶部16から読み出し、当該接触の動作に対応して関連付けられた文字又は画像をテーブルから抽出して、接触が検出された文字又は画像を抽出された文字又は画像に変更、又は接触が検出された文字又は画像に抽出された文字又は画像を追加する。  In such a configuration, when contact with the character or image displayed on thedisplay unit 11 is detected, thecontrol unit 17 reads a table corresponding to the character or image with the contact detected from thestorage unit 16, The character or image associated with the contact action is extracted from the table, and the character or image in which contact is detected is changed to the extracted character or image, or the character or image in which contact is detected is extracted. Added characters or images.

例えば、制御部17は、対象となる文字が「え」の場合、記憶部16から「え」に対応するテーブル(図4に示すテーブル)を読み出し、当該テーブルを参照して、タップ動作が一回(シングルタップ)の場合には、「え」を「A」に変更し、タップ動作が二回(ダブルタップ)の場合には、「え」を「1」に変更し、摺動操作(スワイプ)の場合には、「え」に「〜っ」を追加する。なお、図4に示すテーブルは、一例であってこの内容及び形式に限られない。  For example, when the target character is “e”, thecontrol unit 17 reads the table corresponding to “e” (the table shown in FIG. 4) from thestorage unit 16 and refers to the table to perform the tap operation. In the case of 1 time (single tap), change “E” to “A”, and in case of 2 taps (double tap), change “E” to “1” and slide operation ( In the case of (Swipe), “~” is added to “E”. Note that the table shown in FIG. 4 is an example and is not limited to this content and format.

また、接触の動作には、タップ(軽く叩く動作)とスイープ(摺動する動作)の他に、フリック(はらう動作)や、タッチ(接触する動作)等がある。さらに、タッチには、短時間のタッチや長時間のタッチもある。さらに、タッチとスイープの組み合わせ動作等も考えられる。本実施例では、参照するテーブルは、図4に示すテーブルに限定されず、様々な接触の動作に対応して、変更又は追加する文字等が関連付けられたものを採用しても良い。  In addition to the tap (tapping operation) and sweep (sliding operation), the contact operation includes flicking (touching operation), touch (contacting operation), and the like. Furthermore, the touch includes a short-time touch and a long-time touch. Further, a combination operation of touch and sweep is also conceivable. In the present embodiment, the table to be referred to is not limited to the table shown in FIG. 4, and a table associated with characters to be changed or added in accordance with various contact operations may be adopted.

また、制御部17は、検出部12により接触が検出された場合、接触の動作と対象となる文字等に基づいて、適したテーブルを記憶部16から読み出し、当該テーブルを参照して、文字等の変更又は追加を行う。  In addition, when a contact is detected by thedetection unit 12, thecontrol unit 17 reads a suitable table from thestorage unit 16 based on the contact operation and the target character and the like, refers to the table, and the character etc. Make changes or additions.

このようにして、携帯電話機1は、文章を入力後に、文字又は画像の変更、又は新たな文字又は画像を追加したい場合に、対象となる文字又は記号に対して接触操作を行うことにより、容易に文字又は画像の変更又は追加を行うことができる。  In this way, themobile phone 1 can easily change the character or image after inputting the text, or perform a contact operation on the target character or symbol when it is desired to add a new character or image. Characters or images can be changed or added.

また、記憶部16は、絵文字毎に、当該絵文字に対する接触の動作に対応して変更、或いは追加する同一カテゴリーに属する絵文字を関連付けたテーブルを記憶する構成でも良い。
このような構成では、制御部17は、表示部11に表示されている文字に対する接触が検出されて、接触が検出された文字が絵文字であると判定された場合には、当該絵文字に対応するテーブルを記憶部16から読み出し、当該接触の動作に対応して関連付けられた絵文字をテーブルから抽出して、接触が検出された絵文字を抽出された絵文字に変更、又は接触が検出された絵文字に抽出された絵文字を追加する。
Moreover, the structure which memorize | stores the table which linked | related the pictogram which belongs to the same category changed or added corresponding to the operation | movement of the touch with respect to the said pictogram may be sufficient as the memory |storage part 16. FIG.
In such a configuration, when the contact with the character displayed on thedisplay unit 11 is detected and thecontrol unit 17 determines that the character from which the contact is detected is a pictograph, thecontrol unit 17 corresponds to the pictograph. The table is read from thestorage unit 16 and the pictogram associated with the contact operation is extracted from the table, and the pictogram detected to be touched is changed to the extracted pictogram, or extracted to the pictograph whose touch is detected. Added emoji.

例えば、制御部17は、対象となる絵文字が「顔」の場合、記憶部16から絵文字の「顔」に対応するテーブル(図5に示すテーブル)を読み出し、当該テーブルを参照して、タップ動作が一回(シングルタップ)の場合には、笑顔の絵文字に変更し、タップ動作が二回(ダブルタップ)の場合には、落ち込んだ顔の絵文字に変更し、摺動操作(スワイプ)の場合には、泣き顔の絵文字を追加する。なお、図5に示すテーブルは、一例であってこの内容及び形式に限られない。  For example, when the target pictogram is “face”, thecontrol unit 17 reads a table (table shown in FIG. 5) corresponding to the “face” of the pictogram from thestorage unit 16, and refers to the table to perform a tap operation. If it is once (single tap), it will be changed to a smiley emoticon. If the tap action is twice (double tap), it will be changed to a depressed face pictogram, and if it is a sliding operation (swipe) Add a crying face emoji. Note that the table shown in FIG. 5 is an example and is not limited to this content and format.

また、制御部17は、検出部12により接触が検出された場合、接触の動作と対象となる絵文字に基づいて、適したテーブルを記憶部16から読み出し、当該テーブルを参照して、絵文字の変更又は追加を行う。  In addition, when contact is detected by thedetection unit 12, thecontrol unit 17 reads a suitable table from thestorage unit 16 based on the contact operation and the target pictograph, and changes the pictograph by referring to the table. Or add.

このようにして、携帯電話機1は、文章を入力後に、絵文字の変更、又は新たな絵文字を追加したい場合に、対象となる絵文字に対して接触操作を行うことにより、容易に絵文字の変更又は追加を行うことができる。  In this way, themobile phone 1 can easily change or add a pictogram by performing a touch operation on the target pictogram when it is desired to change the pictogram or add a new pictogram after inputting text. It can be performed.

また、記憶部16は、文字又は画像毎に、当該文字又は当該画像に対する接触の移動方向に対応して変更、或いは追加する文字又は画像を関連付けたテーブルを記憶する構成でも良い。
このような構成では、制御部17は、表示部11に表示されている文字又は画像に対する接触が検出された場合に、接触が検出された文字又は画像に対応するテーブルを記憶部16から読み出し、当該接触の移動方向に対応して関連付けられた文字又は画像をテーブルから抽出して、接触が検出された文字又は画像を抽出された文字又は画像に変更、或いは接触が検出された文字又は画像に抽出された文字又は画像を追加する。
In addition, thestorage unit 16 may be configured to store, for each character or image, a table in which a character or image to be changed or added is associated with the moving direction of contact with the character or the image.
In such a configuration, when contact with the character or image displayed on thedisplay unit 11 is detected, thecontrol unit 17 reads a table corresponding to the character or image with the contact detected from thestorage unit 16, The character or image associated with the moving direction of the contact is extracted from the table, and the character or image in which contact is detected is changed to the extracted character or image, or the character or image in which contact is detected. Add extracted characters or images.

例えば、制御部17は、対象となる文字が「え」の場合、記憶部16から「え」に対応するテーブル(図6(a)に示すテーブル)を読み出し、当該テーブルを参照して、上向のスワイプの場合には、「え」に「っ」を追加し(図6(b)を参照)、下向きのスワイプの場合には、「え」に「〜っ」を追加する(図6(c)を参照。)。なお、図6に示すテーブルは、一例であってこの内容及び形式に限られない。  For example, when the target character is “e”, thecontrol unit 17 reads the table corresponding to “e” from the storage unit 16 (the table shown in FIG. 6A), and refers to the table. In the case of the swipe in the direction, “t” is added to “E” (see FIG. 6B), and in the case of the downward swipe, “˜” is added to “E” (see FIG. 6). (See (c).) Note that the table shown in FIG. 6 is an example and is not limited to this content and format.

このようにして、携帯電話機1は、文章を入力後に、スイープの方向によって、追加される文字を変更することができる。なお、本実施例では、追加の場合について説明したが、これに限られず、図6(a)に示すテーブルの変更や項目を追加することにより、文字等の変更も行うことができる。  In this manner, themobile phone 1 can change the added character according to the direction of the sweep after inputting the text. In the present embodiment, the case of addition has been described. However, the present invention is not limited to this, and it is also possible to change a character or the like by adding a table or an item shown in FIG.

また、記憶部16は、表示部11に文字が表示されている場合に、接触の移動方向が文字の表示方向と順方向の場合には、順接の文字を関連付け、接触の移動方向が文字の表示方向と逆方向の場合には、逆接の文字を関連付けたテーブルを記憶する構成でも良い。
このような構成では、制御部17は、表示部11に表示されている文字に対する接触が検出されて、接触の移動方向が文字の表示方向と順方向の場合には、テーブルに関連付けられている順接の文字を抽出して、接触が検出された文字に抽出された順接の文字を追加する。また、制御部17は、表示部11に表示されている文字に対する接触が検出されて、接触の移動方向が文字の表示方向と逆方向の場合には、テーブルに関連付けられている逆接の文字を抽出して、接触が検出された文字に抽出された逆接の文字を追加する。
In addition, thestorage unit 16 associates the forward character when the moving direction of the touch is the character display direction and the forward direction when the character is displayed on thedisplay unit 11, and the moving direction of the touch is the character. If the display direction is opposite to the display direction, a table in which reversely connected characters are associated may be stored.
In such a configuration, thecontrol unit 17 is associated with the table when contact with the character displayed on thedisplay unit 11 is detected and the movement direction of the contact is the display direction of the character and the forward direction. The tangent characters are extracted, and the extracted tangent characters are added to the characters where contact is detected. In addition, when contact with the character displayed on thedisplay unit 11 is detected and the movement direction of the contact is opposite to the display direction of the character, thecontrol unit 17 displays the reverse connection character associated with the table. Extracting and adding the extracted reverse connection character to the detected contact character.

例えば、制御部17は、対象となる文字が「え」の場合、記憶部16から「え」に対応するテーブル(図7(a)に示すテーブル)を読み出し、当該テーブルを参照して、順方向のスイープの場合には、「え」に、読点と順接の接続詞「、だから」を追加し(図7(b)を参照)、逆方向のスイープの場合には、「え」に、読点と逆接の接続詞「、だけど」を追加する(図7(c)を参照。)。なお、図7に示すテーブルは、一例であってこの内容及び形式に限られない。  For example, when the target character is “e”, thecontrol unit 17 reads the table corresponding to “e” (the table shown in FIG. 7A) from thestorage unit 16 and refers to the table in order. In the case of a sweep in the direction, a conjunction “So,” of the punctuation mark and the tangent is added to “e” (see FIG. 7B), and in the case of a sweep in the reverse direction, “e”, Add the conjunctive “, but” as the inverse of the reading (see FIG. 7C). The table shown in FIG. 7 is an example and is not limited to this content and format.

このようにして、携帯電話機1は、文章を入力後に、スイープの方向が順方向か逆方向かによって、順接又は逆接の接続詞を追加することができる。なお、本実施例では、追加の場合について説明したが、これに限られず、図7(a)に示すテーブルの変更や項目を追加することにより、文字等の変更も行うことができる。  In this way, themobile phone 1 can add a forward or reverse conjunction depending on whether the direction of the sweep is the forward direction or the reverse direction after inputting the text. In the present embodiment, the case of addition has been described. However, the present invention is not limited to this, and by changing the table or adding items shown in FIG.

また、記憶部16は、文字又は画像毎に、当該文字又は当該画像に対する接触の軌跡に対応する文字又は画像を関連付けたテーブルを記憶する構成でも良い。
このような構成では、制御部17は、表示部11に表示されている文字に対する接触が検出された場合に、接触が検出された文字又は画像に対応するテーブルを記憶部16から読み出し、当該接触の軌跡に対応して関連付けられた文字又は画像をテーブルから抽出して、接触が検出された文字又は画像を抽出された文字又は画像に変更、或いは接触が検出された文字又は画像に抽出された文字又は画像を追加する。
Moreover, the structure which memorize | stores the table which linked | related the character or image corresponding to the locus | trajectory of the contact with respect to the said character or the said image may be sufficient as the memory |storage part 16. FIG.
In such a configuration, when contact with the character displayed on thedisplay unit 11 is detected, thecontrol unit 17 reads a table corresponding to the character or image with which contact is detected from thestorage unit 16, and The character or image associated with the trajectory is extracted from the table, the character or image in which contact is detected is changed to the extracted character or image, or the character or image in which contact is detected is extracted. Add text or images.

例えば、制御部17は、対象となる文字が「え」の場合、記憶部16から「え」に対応するテーブル(図8(a)に示すテーブル)を読み出し、当該テーブルを参照して、接触の軌跡がウェーブ状の場合には、「え」に、波線を二つ追加し(図8(b)を参照)、また、接触の軌跡が上方向から下方向にかけての縦の直線の場合には、「え」に、感嘆符を追加する(図8(c)を参照。)。なお、図8に示すテーブルは、一例であってこの内容及び形式に限られない。  For example, when the target character is “e”, thecontrol unit 17 reads a table (table shown in FIG. 8A) corresponding to “e” from thestorage unit 16 and refers to the table to make contact. If the trajectory is wavy, add two wavy lines to “E” (see FIG. 8B), and if the trajectory of the contact is a vertical straight line from top to bottom Adds an exclamation point to “e” (see FIG. 8C). The table shown in FIG. 8 is an example and is not limited to this content and format.

このようにして、携帯電話機1は、文章を入力後に、接触の軌跡に基づいて、記号を追加することができる。なお、本実施例では、記号の追加の場合について説明したが、これに限られず、図8(a)に示すテーブルの変更や項目を追加することにより、文字等の変更も行うことができる。  In this way, themobile phone 1 can add a symbol based on the locus of contact after inputting the text. In this embodiment, the case of adding a symbol has been described. However, the present invention is not limited to this, and it is also possible to change a character or the like by adding a table change or item shown in FIG.

また、制御部17は、表示部11に表示されている文字又は画像に対する接触が検出されて、接触の移動が文字又は画像の表示領域内の接触の移動であると判断した場合には、文字又は画像を異なる文字又は異なる画像に変更する構成でも良い。また、制御部17は、表示部11に表示されている文字又は画像に対する接触が検出されて、接触の移動が文字又は画像の表示領域を超える接触の移動であると判断した場合には、文字又は画像に文字又は画像を追加する構成でも良い。なお、文字又は画像の表示領域内とは、文字又は画像のサイズにしたがって予め定められている領域(図9中の領域X)のことである。  When thecontrol unit 17 detects a contact with the character or image displayed on thedisplay unit 11 and determines that the contact movement is a contact movement within the display area of the character or image, Or the structure which changes an image into a different character or a different image may be sufficient. When thecontrol unit 17 detects a contact with the character or image displayed on thedisplay unit 11 and determines that the contact movement exceeds the display area of the character or image, thecontrol unit 17 Or the structure which adds a character or an image to an image may be sufficient. The character or image display area refers to a predetermined area (area X in FIG. 9) according to the size of the character or image.

具体的には、制御部17は、表示部11に表示されている文字(例えば、「え」)に対して接触を検出した場合に、当該接触が当該文字の表示領域Xの範囲内であると判断したときには、「え」を「A」に変更する(図9(b)を参照)。  Specifically, when thecontrol unit 17 detects contact with a character (for example, “e”) displayed on thedisplay unit 11, the contact is within the display area X of the character. If it is determined, “e” is changed to “A” (see FIG. 9B).

また、制御部17は、表示部11に表示されている文字(例えば、「え」)に対して接触を検出した場合に、当該接触が当該文字の表示領域Xの範囲内を超えていると判断したときには、「え」に「〜っ」を追加する(図9(c)を参照)。  In addition, when thecontrol unit 17 detects contact with a character (for example, “e”) displayed on thedisplay unit 11, the contact exceeds the range of the display region X of the character. When it is determined, “~” is added to “e” (see FIG. 9C).

このようにして、携帯電話機1は、表示部11に表示されている文字又は画像に対して接触が行われ、当該接触が文字又は画像の表示領域の範囲内であるか否かによって、文字又は画像の変更又は追加を行うことができる。  In this way, thecellular phone 1 makes a contact with the character or image displayed on thedisplay unit 11, and the character or the image depends on whether or not the contact is within the display area of the character or image. Images can be changed or added.

また、制御部17は、表示部11に表示されている文字又は画像に対する接触が検出された場合に、接触が検出された文字又は画像に対していかなる接触の動作が行われれば、文字又は画像をいずれの文字又はいずれの画像に変更、又は文字又は画像にいずれの文字又はいずれの画像を追加するかについての所定のガイド表示を表示部11に行う構成でも良い。  In addition, when the contact with the character or image displayed on thedisplay unit 11 is detected, thecontrol unit 17 may perform any contact operation on the character or image with the contact detected. Thedisplay unit 11 may be configured to display a predetermined guide on which character or image is changed, or which character or image is added to the character or image.

具体的には、制御部17は、図10に示すように、表示部11に表示されている文章において、ある文字(例えば、「え」)に対して接触(例えば、タップ)を検出した場合に、そのままリリース(接触状態を解除)すると、「え」を「A」に変更する旨のガイド表示G1と、順方向にスワイプすると、「え」に順接の接続詞(例えば、「、だから」)を追加する旨のガイド表示G2と、逆方向にスワイプすると、「え」に逆接の接続詞(例えば、「、だけど」)を追加する旨のガイド表示G3と、上向きにスワイプすると、「え」に「っ」を追加する旨のガイド表示G4と、下向きにスワイプすると、「え」に「〜っ」を追加する旨のガイド表示G5を行う。なお、図10に示すガイド表示は、一例であって、この表示内容及び形式に限られない。  Specifically, as shown in FIG. 10, thecontrol unit 17 detects contact (for example, a tap) with respect to a certain character (for example, “e”) in the text displayed on thedisplay unit 11. In addition, if it is released as it is (contact state is released), a guide display G1 indicating that “e” will be changed to “A”, and if swiped in the forward direction, a conjunctive conjunction (for example, “So,”) ) And a guide display G3 for adding a conjunctive conjunction (for example, “, but”) to “e” when swiping in the reverse direction and “e” when swiping upward. A guide display G4 indicating that “t” is added to “e” and a guide display G5 indicating that “~” is added to “e” when swiping downward are performed. Note that the guide display shown in FIG. 10 is an example, and is not limited to this display content and format.

このようにして、携帯電話機1は、表示部11に表示されている文章の文字又は画像に対して接触が行われた場合、どのような接触操作を行えば、文字又は画像の変更又は追加が行われるかについて、的確なガイド表示が行われるので、操作性の向上を図ることができる。  In this way, when thecellular phone 1 is in contact with the text or image of the text displayed on thedisplay unit 11, any contact operation can be performed to change or add the text or image. Since accurate guide display is performed as to whether it is performed, operability can be improved.

ここで、携帯電話機1の動作の流れについて、図11に示すフローチャートを参照しながら説明する。  Here, the operation flow of themobile phone 1 will be described with reference to the flowchart shown in FIG.

ステップST1において、検出部12は、文章の入力を指示するタッチイベントを検出し、制御部17に通知する。具体的には、検出部12は、ユーザの操作に応じてメモ帳アプリケーションやメールアプリケーション等が起動され、文章の入力が可能な状態において、ユーザによる文字又は画像の入力を指示する操作をタッチイベントとして検出する。  In step ST <b> 1, thedetection unit 12 detects a touch event that instructs to input a sentence and notifies thecontrol unit 17 of the touch event. Specifically, thedetection unit 12 activates a touch event by instructing the user to input a character or an image when a notepad application, a mail application, or the like is activated in response to the user's operation and text can be input. Detect as.

ステップST2において、制御部17は、ステップST1の肯定によるタッチイベントにしたがって、文章の入力処理を行う。  In step ST <b> 2, thecontrol unit 17 performs a sentence input process according to the touch event that is affirmative in step ST <b> 1.

ステップST3において、検出部12は、文章の編集を指示するタッチイベントを検出し、制御部17に通知する。具体的には、検出部12は、ユーザにより入力された文章の一部に対する操作(ジェスチャー操作)をタッチイベントとして検出する。  In step ST <b> 3, thedetection unit 12 detects a touch event that instructs editing of a sentence and notifies thecontrol unit 17 of the touch event. Specifically, thedetection unit 12 detects an operation (gesture operation) on a part of a sentence input by the user as a touch event.

ステップST4において、制御部17は、ユーザの操作により編集の対象となった文字の文字種と、その操作方法(タップやスワイプ等の操作方法)に基づいて、当該編集の対象になった文字が編集可能かどうかを判断する。具体的には、制御部17は、記憶部16を参照し、編集の対象となった文字に対応するテーブルがあるかどうかによって、編集可能かどうかを判断する。編集可能であると判断した場合(Yes)には、ステップST5に進み、編集可能ではないと判断した場合(No)には、処理を終了する。  In step ST4, thecontrol unit 17 edits the character to be edited based on the character type of the character to be edited by the user's operation and the operation method (operation method such as tap or swipe). Determine if it is possible. Specifically, thecontrol unit 17 refers to thestorage unit 16 and determines whether or not editing is possible depending on whether or not there is a table corresponding to the character to be edited. If it is determined that editing is possible (Yes), the process proceeds to step ST5. If it is determined that editing is not possible (No), the process ends.

ステップST5において、制御部17は、記憶部16に記憶されているテーブルにしたがって、編集の対象となった文字を変更、又は編集の対象となった文字に新たな文字を追加する。例えば、制御部17は、記憶部16に記憶されているテーブルにしたがって、編集の対象となった文字(平仮名)の後尾に新しい文字を追加する。また、制御部17は、編集の対象となった絵文字を他の絵文字に変更する。  In step ST <b> 5, thecontrol unit 17 changes the character to be edited or adds a new character to the character to be edited according to the table stored in thestorage unit 16. For example, thecontrol unit 17 adds a new character to the tail of the character (Hiragana) to be edited according to the table stored in thestorage unit 16. Further, thecontrol unit 17 changes the pictograph to be edited to another pictograph.

また、携帯電話機1は、上述した実施例に限定されず、文字等に対する接触操作に応じて、様々な変更又は追加が行われても良い。
例えば、携帯電話機1は、図12(a)に示すように、笑顔の絵文字に対して、タップの操作が一回行われた場合には、記憶部16に記憶されているテーブルを参照して、落ち込んだ顔の絵文字に変更する構成でも良い。これは、顔を一回叩かれたから困って落ち込んだ顔になる、という日常生活の経験を反映した変化であるといえる。
In addition, themobile phone 1 is not limited to the above-described embodiment, and various changes or additions may be made according to a touch operation on characters and the like.
For example, as illustrated in FIG. 12A, themobile phone 1 refers to a table stored in thestorage unit 16 when a tap operation is performed once on a smiley pictogram. It may be configured to change to a emoticon with a depressed face. This is a change that reflects the experience of daily life that the face is troubled and depressed because it was hit once.

また、携帯電話機1は、図12(b)に示すように、笑顔の絵文字に対して、タップの操作が3回連続して行われた場合には、記憶部16に記憶されているテーブルを参照して、泣き顔の絵文字に変更する構成でも良い。これは、顔を三回叩かれたから痛くて泣き顔になる、という日常生活の経験を反映した変化であるといえる。
また、携帯電話機1は、ユーザにより入力された文章だけでなく、ブラウザ機能等により表示された文章を取り込んで編集することもできる。
Further, as shown in FIG. 12B, themobile phone 1 displays the table stored in thestorage unit 16 when the tap operation is performed three times on the smiley pictograph. It may be configured to refer to the crying face pictogram. This is a change that reflects the experience of daily life that the face is hurt and crying because the face is hit three times.
Further, themobile phone 1 can capture and edit not only the text input by the user but also the text displayed by the browser function or the like.

また、携帯電話機1は、図12(c)に示すように、泣き顔の絵文字に対して、左右にスワイプする操作が行われた場合には、記憶部16に記憶されているテーブルを参照して、笑顔の絵文字に変更する構成でも良い。これは、泣き顔を撫でられたから泣き止んで笑顔になる、という日常生活の経験を反映した変化であるといえる。  Further, as shown in FIG. 12C, themobile phone 1 refers to the table stored in thestorage unit 16 when an operation of swiping left and right is performed on the emoticon of the crying face. It may be configured to change to a smiley emoji. It can be said that this is a change reflecting the experience of daily life, because the crying face was boiled and the crying stopped.

さらに、携帯電話機1は、猫の顔(真顔)を示す絵文字に対して、顎の付近を左右にスワイプする操作が行われた場合には、記憶部16に記憶されているテーブルを参照して、猫の顔(真顔)を笑顔の絵文字に変更する構成でも良い。これは、猫の顎を撫でると猫が喜ぶ、という日常生活の経験を反映した変化であるといえる。  Further, when themobile phone 1 performs an operation of swiping left and right around the chin on a pictograph indicating a cat's face (true face), themobile phone 1 refers to a table stored in thestorage unit 16. The cat face (true face) may be changed to a smiley emoji. This is a change reflecting the experience of daily life that cats are pleased when they stroke their chin.

また、携帯電話機1は、猫の顔(真顔)を示す絵文字に対して、ひげの付近をスワイプする操作が行われた場合には、記憶部16に記憶されているテーブルを参照して、猫の顔(真顔)を怒った絵文字に変更する構成でも良い。これは、猫のひげを撫でると猫が嫌がる、という日常生活の経験を反映した変化であるといえる。  In addition, when an operation of swiping the vicinity of the beard is performed on a pictograph indicating a cat's face (true face), themobile phone 1 refers to the table stored in thestorage unit 16 and refers to the cat. It is also possible to change the face (true face) to an angry emoji. This is a change reflecting the experience of daily life that cats dislike when they stroke their beards.

このようにして、携帯電話機1は、日常生活の経験法則にしたがって、絵文字を適宜変更するので、対象となる絵文字に対して、どういう操作を行えば、所望する変更が得られるかが容易に予想することが可能なので、ユーザの操作性の向上を図ることができる。  In this way, themobile phone 1 changes pictographs as appropriate according to the rules of daily life, so it is easy to predict what kind of operation will be performed on the target pictograph. Therefore, the user operability can be improved.

1 携帯電話機
10 タッチパネル
11 表示部
12 検出部
17 制御部
DESCRIPTION OFSYMBOLS 1Cellular phone 10Touch panel 11Display part 12Detection part 17 Control part

Claims (10)

Translated fromJapanese
表示部と、
前記表示部に対する接触を検出する検出部と、
前記検出部により前記表示部に対する接触を検出した場合、当該接触の動作に基づいて、前記表示部に表示されている文字又は画像を編集する制御部を備え、
前記制御部は、前記表示部に表示されている文字又は画像に対する接触が検出された場合に、当該接触の動作に基づいて、前記文字又は前記画像を異なる文字又は異なる画像に変更、或いは前記文字又は前記画像に文字又は画像を追加する電子機器。
A display unit;
A detection unit for detecting contact with the display unit;
When detecting contact with the display unit by the detection unit, based on the operation of the contact, a control unit that edits characters or images displayed on the display unit,
When the contact with the character or image displayed on the display unit is detected, the control unit changes the character or the image to a different character or a different image based on the operation of the contact, or the character Alternatively, an electronic device that adds characters or images to the image.
文字又は画像毎に、当該文字又は当該画像に対する接触の動作に対応して変更、或いは追加する文字又は画像を関連付けたテーブルを記憶する記憶部を備え、
前記制御部は、前記表示部に表示されている文字又は画像に対する接触が検出された場合に、接触が検出された文字又は画像に対応するテーブルを前記記憶部から読み出し、当該接触の動作に対応して関連付けられた文字又は画像を前記テーブルから抽出して、接触が検出された文字又は画像を抽出された文字又は画像に変更、或いは接触が検出された文字又は画像に抽出された文字又は画像を追加する請求項1記載の電子機器。
For each character or image, a storage unit is provided that stores a table that associates a character or image to be changed or added in response to an operation of contact with the character or the image.
When the control unit detects contact with the character or image displayed on the display unit, the control unit reads a table corresponding to the character or image with the contact detected from the storage unit, and handles the contact operation. Then, the associated character or image is extracted from the table, the character or image in which contact is detected is changed to the extracted character or image, or the character or image extracted in the character or image in which contact is detected. The electronic device according to claim 1, wherein
前記記憶部は、絵文字毎に、当該絵文字に対する接触の動作に対応して変更、或いは追加する同一カテゴリーに属する絵文字を関連付けたテーブルを記憶し、
前記制御部は、前記表示部に表示されている文字に対する接触が検出されて、接触が検出された文字が絵文字であると判定された場合には、当該絵文字に対応するテーブルを前記記憶部から読み出し、当該接触の動作に対応して関連付けられた絵文字を前記テーブルから抽出して、接触が検出された絵文字を抽出された絵文字に変更、或いは接触が検出された絵文字に抽出された絵文字を追加する請求項2記載の電子機器。
The storage unit stores, for each pictogram, a table that associates pictograms belonging to the same category to be changed or added in response to the touch operation on the pictogram,
When the control unit detects contact with the character displayed on the display unit and determines that the character from which contact is detected is a pictograph, the control unit stores a table corresponding to the pictograph from the storage unit. Read out and extract the pictograms associated with the contact operation from the table and change the pictograms where contact is detected to the extracted pictograms, or add the pictograms extracted to the pictograms where contact is detected The electronic device according to claim 2.
前記記憶部は、文字又は画像毎に、当該文字又は当該画像に対する接触の移動方向に対応して変更、或いは追加する文字又は画像を関連付けたテーブルを記憶し、
前記制御部は、前記表示部に表示されている文字又は画像に対する接触が検出された場合に、接触が検出された文字又は画像に対応するテーブルを前記記憶部から読み出し、当該接触の移動方向に対応して関連付けられた文字又は画像を前記テーブルから抽出して、接触が検出された文字又は画像を抽出された文字又は画像に変更、或いは接触が検出された文字又は画像に抽出された文字又は画像を追加する請求項2記載の電子機器。
The storage unit stores, for each character or image, a table that associates the character or image to be changed or added corresponding to the moving direction of contact with the character or the image,
When contact with the character or image displayed on the display unit is detected, the control unit reads a table corresponding to the character or image with the contact detected from the storage unit, and moves the contact in the moving direction of the contact. Correspondingly associated characters or images are extracted from the table, and the characters or images in which contact is detected are changed to the extracted characters or images, or the characters or images extracted in the characters or images in which contact is detected. The electronic device according to claim 2, wherein an image is added.
前記記憶部は、前記表示部に文字が表示されている場合に、接触の移動方向が前記文字の表示方向と順方向の場合には、順接の文字を関連付け、接触の移動方向が前記文字の表示方向と逆方向の場合には、逆接の文字を関連付けたテーブルを記憶し、
前記制御部は、前記表示部に表示されている文字に対する接触が検出されて、
前記接触の移動方向が前記文字の表示方向と順方向の場合には、前記テーブルに関連付けられている順接の文字を抽出して、接触が検出された文字に抽出された順接の文字を追加し、
前記接触の移動方向が前記文字の表示方向と逆方向の場合には、前記テーブルに関連付けられている逆接の文字を抽出して、接触が検出された文字に抽出された逆接の文字を追加する請求項4記載の電子機器。
When the character is displayed on the display unit and the moving direction of the contact is the forward direction and the display direction of the character, the storage unit associates the forward character and the moving direction of the contact is the character. If the display direction is in the opposite direction, store a table that associates the reverse character,
The control unit detects contact with the characters displayed on the display unit,
When the moving direction of the contact is the display direction of the character and the forward direction, the forward character associated with the table is extracted, and the forward character extracted from the detected contact character is Add
When the moving direction of the contact is opposite to the display direction of the character, the reverse character associated with the table is extracted, and the extracted reverse character is added to the character where the contact is detected. The electronic device according to claim 4.
前記記憶部は、文字又は画像毎に、当該文字又は当該画像に対する接触の軌跡に対応する文字又は画像を関連付けたテーブルを記憶し、
前記制御部は、前記表示部に表示されている文字に対する接触が検出された場合に、接触が検出された文字又は画像に対応するテーブルを前記記憶部から読み出し、当該接触の軌跡に対応して関連付けられた文字又は画像を前記テーブルから抽出して、接触が検出された文字又は画像を抽出された文字又は画像に変更、或いは接触が検出された文字又は画像に抽出された文字又は画像を追加する請求項2記載の電子機器。
The storage unit stores, for each character or image, a table that associates the character or image corresponding to the trajectory of contact with the character or the image,
When contact with the character displayed on the display unit is detected, the control unit reads a table corresponding to the character or image where contact is detected from the storage unit, and corresponds to the locus of the contact. Extract the associated character or image from the table and change the detected character or image to the extracted character or image, or add the extracted character or image to the detected character or image The electronic device according to claim 2.
前記制御部は、前記表示部に表示されている文字又は画像に対する接触が検出されて、
前記接触の移動が前記文字又は前記画像の表示領域内の接触の移動であると判断した場合には、前記文字又は前記画像を異なる文字又は異なる画像に変更し、
前記接触の移動が前記文字又は前記画像の表示領域を超える接触の移動であると判断した場合には、前記文字又は前記画像に文字又は画像を追加する請求項1記載の電子機器。
The control unit detects contact with characters or images displayed on the display unit,
When it is determined that the movement of the contact is a movement of the contact in the display area of the character or the image, the character or the image is changed to a different character or a different image,
The electronic device according to claim 1, wherein when it is determined that the movement of the contact is a movement of the contact exceeding the display area of the character or the image, the character or the image is added to the character or the image.
前記制御部は、前記表示部に表示されている文字又は画像に対する接触が検出された場合に、接触が検出された文字又は画像に対していかなる接触の動作が行われれば、前記文字又は前記画像をいずれの文字又はいずれの画像に変更、或いは前記文字又は前記画像にいずれの文字又はいずれの画像を追加するかについての所定のガイド表示を前記表示部に行う請求項1記載の電子機器。  When the contact with the character or image displayed on the display unit is detected, the control unit performs any contact operation on the character or image with the contact detected. The electronic device according to claim 1, wherein a predetermined guide display as to which character or image is changed or which character or image is added to the character or the image is displayed on the display unit. 表示部に対する接触を検出する検出工程と、
前記検出工程により前記表示部に対する接触を検出した場合、当該接触の動作に基づいて、前記表示部に表示されている文字又は画像を編集する制御工程を備え、
前記制御工程は、前記表示部に表示されている文字又は画像に対する接触が検出された場合に、当該接触の動作に基づいて、前記文字又は前記画像を異なる文字又は異なる画像に変更、或いは前記文字又は前記画像に文字又は画像を追加する文章編集方法。
A detection step of detecting contact with the display unit;
When a contact with the display unit is detected by the detection step, a control step for editing a character or an image displayed on the display unit based on the operation of the contact,
In the control step, when contact with the character or image displayed on the display unit is detected, the character or the image is changed to a different character or different image based on the operation of the contact, or the character Or a text editing method for adding characters or images to the image.
表示部に対する接触を検出する検出工程と、
前記検出工程により前記表示部に対する接触を検出した場合、当該接触の動作に基づいて、前記表示部に表示されている文字又は画像を編集する制御工程をコンピュータによって実現するための制御プログラムであって、
前記制御工程は、前記表示部に表示されている文字又は画像に対する接触が検出された場合に、当該接触の動作に基づいて、前記文字又は前記画像を異なる文字又は異なる画像に変更、或いは前記文字又は前記画像に文字又は画像を追加する制御プログラム。
A detection step of detecting contact with the display unit;
A control program for realizing, by a computer, a control step of editing a character or an image displayed on the display unit based on an operation of the contact when a contact with the display unit is detected by the detection step. ,
In the control step, when contact with the character or image displayed on the display unit is detected, the character or the image is changed to a different character or different image based on the operation of the contact, or the character Or the control program which adds a character or an image to the said image.
JP2011164343A2011-07-272011-07-27 Electronic device, text editing method and control programExpired - Fee RelatedJP5757815B2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2011164343AJP5757815B2 (en)2011-07-272011-07-27 Electronic device, text editing method and control program

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2011164343AJP5757815B2 (en)2011-07-272011-07-27 Electronic device, text editing method and control program

Publications (2)

Publication NumberPublication Date
JP2013029925Atrue JP2013029925A (en)2013-02-07
JP5757815B2 JP5757815B2 (en)2015-08-05

Family

ID=47786930

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2011164343AExpired - Fee RelatedJP5757815B2 (en)2011-07-272011-07-27 Electronic device, text editing method and control program

Country Status (1)

CountryLink
JP (1)JP5757815B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2015049686A (en)*2013-08-302015-03-16日本電気株式会社 Electronic device, control method and program for electronic device
JP2015064776A (en)*2013-09-252015-04-09京セラドキュメントソリューションズ株式会社Input device and electronic apparatus
JP2016115134A (en)*2014-12-152016-06-23株式会社ドワンゴInformation processing apparatus, control method, and program
JP2020017285A (en)*2015-03-082020-01-30アップル インコーポレイテッドApple Inc. Sharing user-configurable graphic structures
US10936345B1 (en)2019-09-092021-03-02Apple Inc.Techniques for managing display usage
US10990270B2 (en)2014-08-022021-04-27Apple Inc.Context-specific user interfaces
US11019193B2 (en)2015-02-022021-05-25Apple Inc.Device, method, and graphical user interface for establishing a relationship and connection between two devices
US11042281B2 (en)2014-08-152021-06-22Apple Inc.Weather user interface
US11061372B1 (en)2020-05-112021-07-13Apple Inc.User interfaces related to time
US11131967B2 (en)2019-05-062021-09-28Apple Inc.Clock faces for an electronic device
US11148007B2 (en)2016-06-112021-10-19Apple Inc.Activity and workout updates
US11301130B2 (en)2019-05-062022-04-12Apple Inc.Restricted operation of an electronic device
US11327634B2 (en)2017-05-122022-05-10Apple Inc.Context-specific user interfaces
US11327650B2 (en)2018-05-072022-05-10Apple Inc.User interfaces having a collection of complications
US11336961B2 (en)2016-06-122022-05-17Apple Inc.Recording and broadcasting application visual output
US11372659B2 (en)2020-05-112022-06-28Apple Inc.User interfaces for managing user interface sharing
US11385860B2 (en)2015-06-072022-07-12Apple Inc.Browser with docked tabs
US11430571B2 (en)2014-05-302022-08-30Apple Inc.Wellness aggregator
US11526256B2 (en)2020-05-112022-12-13Apple Inc.User interfaces for managing user interface sharing
US11539831B2 (en)2013-03-152022-12-27Apple Inc.Providing remote interactions with host device using a wireless device
US11580867B2 (en)2015-08-202023-02-14Apple Inc.Exercised-based watch face and complications
US11694590B2 (en)2020-12-212023-07-04Apple Inc.Dynamic user interface with time indicator
US11720239B2 (en)2021-01-072023-08-08Apple Inc.Techniques for user interfaces related to an event
US11782575B2 (en)2018-05-072023-10-10Apple Inc.User interfaces for sharing contextually relevant media content
US11921992B2 (en)2021-05-142024-03-05Apple Inc.User interfaces related to time
US11931625B2 (en)2021-05-152024-03-19Apple Inc.User interfaces for group workouts
US11960701B2 (en)2019-05-062024-04-16Apple Inc.Using an illustration to show the passing of time
US12045014B2 (en)2022-01-242024-07-23Apple Inc.User interfaces for indicating time
US12175065B2 (en)2016-06-102024-12-24Apple Inc.Context-specific user interfaces for relocating one or more complications in a watch or clock interface
US12182373B2 (en)2021-04-272024-12-31Apple Inc.Techniques for managing display usage

Citations (9)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH0869461A (en)*1994-05-131996-03-12Apple Computer IncText conversion method for computer system
JP2004272377A (en)*2003-03-052004-09-30Ricoh Co Ltd Character editing device, character input / display device, character editing method, character editing program, and storage medium
US20100125811A1 (en)*2008-11-192010-05-20Bradford Allen MoorePortable Touch Screen Device, Method, and Graphical User Interface for Entering and Using Emoji Characters
JP2011034289A (en)*2009-07-312011-02-17Nec CorpInput reception device, input reception method and program
JP2011040008A (en)*2009-08-182011-02-24Canon IncDevice and method for controlling display, program, storage medium
JP2011076138A (en)*2009-09-292011-04-14Nec CorpCharacter string conversion method for terminal device
JP2011081569A (en)*2009-10-062011-04-21Nec CorpMobile terminal device, character input method and character input program
JP2011090376A (en)*2009-10-202011-05-06Sharp CorpPictograph input device
JP2011138343A (en)*2009-12-282011-07-14Denso CorpElectronic equipment and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH0869461A (en)*1994-05-131996-03-12Apple Computer IncText conversion method for computer system
JP2004272377A (en)*2003-03-052004-09-30Ricoh Co Ltd Character editing device, character input / display device, character editing method, character editing program, and storage medium
US20100125811A1 (en)*2008-11-192010-05-20Bradford Allen MoorePortable Touch Screen Device, Method, and Graphical User Interface for Entering and Using Emoji Characters
JP2011034289A (en)*2009-07-312011-02-17Nec CorpInput reception device, input reception method and program
JP2011040008A (en)*2009-08-182011-02-24Canon IncDevice and method for controlling display, program, storage medium
JP2011076138A (en)*2009-09-292011-04-14Nec CorpCharacter string conversion method for terminal device
JP2011081569A (en)*2009-10-062011-04-21Nec CorpMobile terminal device, character input method and character input program
JP2011090376A (en)*2009-10-202011-05-06Sharp CorpPictograph input device
JP2011138343A (en)*2009-12-282011-07-14Denso CorpElectronic equipment and program

Cited By (60)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US11539831B2 (en)2013-03-152022-12-27Apple Inc.Providing remote interactions with host device using a wireless device
JP2015049686A (en)*2013-08-302015-03-16日本電気株式会社 Electronic device, control method and program for electronic device
JP2015064776A (en)*2013-09-252015-04-09京セラドキュメントソリューションズ株式会社Input device and electronic apparatus
US11430571B2 (en)2014-05-302022-08-30Apple Inc.Wellness aggregator
US10990270B2 (en)2014-08-022021-04-27Apple Inc.Context-specific user interfaces
US11740776B2 (en)2014-08-022023-08-29Apple Inc.Context-specific user interfaces
US12430013B2 (en)2014-08-022025-09-30Apple Inc.Context-specific user interfaces
US11922004B2 (en)2014-08-152024-03-05Apple Inc.Weather user interface
US11042281B2 (en)2014-08-152021-06-22Apple Inc.Weather user interface
US12229396B2 (en)2014-08-152025-02-18Apple Inc.Weather user interface
US11550465B2 (en)2014-08-152023-01-10Apple Inc.Weather user interface
JP2016115134A (en)*2014-12-152016-06-23株式会社ドワンゴInformation processing apparatus, control method, and program
US11388280B2 (en)2015-02-022022-07-12Apple Inc.Device, method, and graphical user interface for battery management
US11019193B2 (en)2015-02-022021-05-25Apple Inc.Device, method, and graphical user interface for establishing a relationship and connection between two devices
US12019862B2 (en)2015-03-082024-06-25Apple Inc.Sharing user-configurable graphical constructs
JP2020017285A (en)*2015-03-082020-01-30アップル インコーポレイテッドApple Inc. Sharing user-configurable graphic structures
US11385860B2 (en)2015-06-072022-07-12Apple Inc.Browser with docked tabs
US11908343B2 (en)2015-08-202024-02-20Apple Inc.Exercised-based watch face and complications
US11580867B2 (en)2015-08-202023-02-14Apple Inc.Exercised-based watch face and complications
US12243444B2 (en)2015-08-202025-03-04Apple Inc.Exercised-based watch face and complications
US12175065B2 (en)2016-06-102024-12-24Apple Inc.Context-specific user interfaces for relocating one or more complications in a watch or clock interface
US11918857B2 (en)2016-06-112024-03-05Apple Inc.Activity and workout updates
US12274918B2 (en)2016-06-112025-04-15Apple Inc.Activity and workout updates
US11660503B2 (en)2016-06-112023-05-30Apple Inc.Activity and workout updates
US11161010B2 (en)2016-06-112021-11-02Apple Inc.Activity and workout updates
US11148007B2 (en)2016-06-112021-10-19Apple Inc.Activity and workout updates
US11632591B2 (en)2016-06-122023-04-18Apple Inc.Recording and broadcasting application visual output
US11336961B2 (en)2016-06-122022-05-17Apple Inc.Recording and broadcasting application visual output
US11327634B2 (en)2017-05-122022-05-10Apple Inc.Context-specific user interfaces
US11775141B2 (en)2017-05-122023-10-03Apple Inc.Context-specific user interfaces
US11782575B2 (en)2018-05-072023-10-10Apple Inc.User interfaces for sharing contextually relevant media content
US11977411B2 (en)2018-05-072024-05-07Apple Inc.Methods and systems for adding respective complications on a user interface
US11327650B2 (en)2018-05-072022-05-10Apple Inc.User interfaces having a collection of complications
US11131967B2 (en)2019-05-062021-09-28Apple Inc.Clock faces for an electronic device
US11340757B2 (en)2019-05-062022-05-24Apple Inc.Clock faces for an electronic device
US11340778B2 (en)2019-05-062022-05-24Apple Inc.Restricted operation of an electronic device
US11960701B2 (en)2019-05-062024-04-16Apple Inc.Using an illustration to show the passing of time
US11301130B2 (en)2019-05-062022-04-12Apple Inc.Restricted operation of an electronic device
US12265703B2 (en)2019-05-062025-04-01Apple Inc.Restricted operation of an electronic device
US12373079B2 (en)2019-09-092025-07-29Apple Inc.Techniques for managing display usage
US10936345B1 (en)2019-09-092021-03-02Apple Inc.Techniques for managing display usage
US12008230B2 (en)2020-05-112024-06-11Apple Inc.User interfaces related to time with an editable background
US11526256B2 (en)2020-05-112022-12-13Apple Inc.User interfaces for managing user interface sharing
US11061372B1 (en)2020-05-112021-07-13Apple Inc.User interfaces related to time
US12422977B2 (en)2020-05-112025-09-23Apple Inc.User interfaces with a character having a visual state based on device activity state and an indication of time
US11372659B2 (en)2020-05-112022-06-28Apple Inc.User interfaces for managing user interface sharing
US11842032B2 (en)2020-05-112023-12-12Apple Inc.User interfaces for managing user interface sharing
US12333123B2 (en)2020-05-112025-06-17Apple Inc.User interfaces for managing user interface sharing
US12099713B2 (en)2020-05-112024-09-24Apple Inc.User interfaces related to time
US11822778B2 (en)2020-05-112023-11-21Apple Inc.User interfaces related to time
US11442414B2 (en)2020-05-112022-09-13Apple Inc.User interfaces related to time
US11694590B2 (en)2020-12-212023-07-04Apple Inc.Dynamic user interface with time indicator
US11720239B2 (en)2021-01-072023-08-08Apple Inc.Techniques for user interfaces related to an event
US12182373B2 (en)2021-04-272024-12-31Apple Inc.Techniques for managing display usage
US11921992B2 (en)2021-05-142024-03-05Apple Inc.User interfaces related to time
US12239884B2 (en)2021-05-152025-03-04Apple Inc.User interfaces for group workouts
US11938376B2 (en)2021-05-152024-03-26Apple Inc.User interfaces for group workouts
US11992730B2 (en)2021-05-152024-05-28Apple Inc.User interfaces for group workouts
US11931625B2 (en)2021-05-152024-03-19Apple Inc.User interfaces for group workouts
US12045014B2 (en)2022-01-242024-07-23Apple Inc.User interfaces for indicating time

Also Published As

Publication numberPublication date
JP5757815B2 (en)2015-08-05

Similar Documents

PublicationPublication DateTitle
JP5757815B2 (en) Electronic device, text editing method and control program
US12242718B2 (en)Device, method, and graphical user interface for using emoji characters with user-defined gestures
US7556204B2 (en)Electronic apparatus and method for symbol input
US8166418B2 (en)Device and method of conveying meaning
JP6135947B2 (en) Character input system
US9740400B2 (en)Electronic device and method for character deletion
US20150067572A1 (en)Mobile terminal and method for setting virtual keyboard of mobile terminal
CN101174190A (en) Method for realizing composite button software keyboard input on screen of electronic equipment
EP2404230A1 (en)Improved text input
JP6681518B2 (en) Character input device
KR101671797B1 (en)Handheld device and input method thereof
JP5695999B2 (en) Electronic device, text editing method and control program
JP6001703B2 (en) Electronic device, text editing method and control program
JP2014140236A (en)Character data input device
JP2013033553A (en)Character data input device
KR101255801B1 (en)Mobile terminal capable of inputting hangul and method for displaying keypad thereof
CN104182160B (en)Electronic device and method for controlling electronic device
TWI488104B (en)Electronic apparatus and method for controlling the same
HK1127139A (en)Electronic apparatus and method for symbol input

Legal Events

DateCodeTitleDescription
A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20140210

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20140910

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20141007

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20141201

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20150519

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20150602

R150Certificate of patent or registration of utility model

Ref document number:5757815

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150

LAPSCancellation because of no payment of annual fees

[8]ページ先頭

©2009-2025 Movatter.jp