















Область техники, к которой относится изобретениеFIELD OF THE INVENTION
[1] Примерные варианты осуществления относятся к системе и способу для предоставления изображения, включающего в себя объект, соответствующий части изображения, захваченного посредством использования устройства, в другое устройство.[1] Exemplary embodiments relate to a system and method for providing an image including an object corresponding to a portion of an image captured by using the device to another device.
Уровень техникиState of the art
[2] В последнее время, активно используется технология передачи и приема изображений между устройствами, имеющими мультимедийную функцию. В частности, поскольку предоставляются инфраструктуры мобильной связи, и типично используются такие устройства, как смартфоны, мобильные телефоны и персональные цифровые устройства (PDA), различные услуги, помимо функции голосовых вызовов, предоставляются посредством этих устройств.[2] Recently, the technology of transmitting and receiving images between devices having a multimedia function is actively used. In particular, since mobile communication infrastructures are provided, and devices such as smartphones, mobile phones, and personal digital devices (PDAs) are typically used, various services besides the voice call function are provided through these devices.
[3] Помимо этого, видеовызовы, выполняемые посредством использования устройств, дают возможность пользователям в двух различных местоположениях осуществлять видеовызов "лицом к лицу", даже если они могут находиться далеко друг от друга, и в силу этого быстро растет применение видеовызовов.[3] In addition, video calls made through the use of devices enable users to make face-to-face video calls at two different locations, even if they can be far apart, and the use of video calls is rapidly growing.
[4] В общем, устройство на передающей стороне получает видеоизображение пользователя для видеовызова, кодирует полученное изображение согласно предварительно определенному формату кодирования видео и передает кодированное видеоизображение в качестве кодированных видеоданных в противоположное устройство.[4] In general, the device on the transmitting side receives a user’s video image for a video call, encodes the received image according to a predetermined video encoding format, and transmits the encoded video image as encoded video data to the opposite device.
[5] Помимо этого, устройство на приемной стороне принимает кодированные видеоданные через сеть мобильной связи и декодирует и отображает их на дисплее, встроенном в устройство на приемной стороне, например, на жидкокристаллическом дисплее (ЖК-дисплее). Соответственно, пользователь на приемной стороне может осуществлять телефонный вызов посредством просмотра изображения, захваченного посредством использования устройства на передающей стороне, в реальном времени.[5] In addition, the device on the receiving side receives encoded video data via a mobile communication network and decodes and displays them on a display built into the device on the receiving side, for example, a liquid crystal display (LCD). Accordingly, the user at the receiving side can make a telephone call by viewing the image captured by using the device on the transmitting side in real time.
[6] Тем не менее, устройства отображения, включенные в устройства, имеют различные разрешения, и поскольку разрешения потоковой передачи данных, передаваемых между устройствами, отличаются согласно способам связи, требуется технология эффективного предоставления части захваченного видеоизображения посредством использования устройства на передающей стороне в устройство на приемной стороне. Кроме того, при осуществлении видеовызова, имеется потребность в технологии эффективного выбора и разворачивания части изображения, захваченного посредством использования устройства на передающей стороне, и предоставления указанной части пользователю.[6] However, the display devices included in the devices have different resolutions, and since the streaming permissions of the data transmitted between the devices differ according to the communication methods, technology is required to efficiently provide a portion of the captured video image by using the device on the transmitting side to the device on the receiving side. In addition, when making a video call, there is a need for a technology for efficiently selecting and expanding a portion of an image captured by using the device on the transmitting side and providing the specified portion to the user.
Сущность изобретенияSUMMARY OF THE INVENTION
Решение задачиThe solution of the problem
[7] Примерные варианты осуществления относятся к системе и способу для предоставления изображения, за счет которых устройство может отслеживать объект, включенный в захватываемое изображение, и передавать часть изображения, включающую в себя отслеживаемый объект, в другое устройство.[7] Exemplary embodiments relate to a system and method for providing an image through which a device can track an object included in a captured image and transmit a portion of the image including the tracked object to another device.
Краткое описание чертежейBrief Description of the Drawings
[8] Вышеуказанные и другие признаки и преимущества должны становиться более очевидными посредством подробного описания примерных вариантов осуществления со ссылкой на прилагаемые чертежи, на которых:[8] The above and other features and advantages should become more apparent through a detailed description of exemplary embodiments with reference to the accompanying drawings, in which:
[9] Фиг. 1 является схематичным видом системы предоставления изображений согласно примерному варианту осуществления;[9] FIG. 1 is a schematic view of an image providing system according to an exemplary embodiment;
[10] Фиг. 2А и 2B иллюстрируют изображение, включающее в себя объект, соответствующий части изображения, захваченного посредством использования первого устройства, отображаемой на втором устройстве, согласно примерному варианту осуществления;[10] FIG. 2A and 2B illustrate an image including an object corresponding to a part of an image captured by using a first device displayed on a second device according to an exemplary embodiment;
[11] Фиг. 3 является блок-схемой последовательности операций, иллюстрирующей способ предоставления видеоизображения, включающего в себя объект, соответствующий части видеоизображения, захватываемого посредством использования первого устройства, во второе устройство, согласно примерному варианту осуществления;[11] FIG. 3 is a flowchart illustrating a method of providing a video image including an object corresponding to a portion of a video image captured by using the first device to a second device according to an exemplary embodiment;
[12] Фиг. 4 является блок-схемой последовательности операций, иллюстрирующей способ формирования информации области относительно интересующей области, посредством использования второго устройства, согласно примерному варианту осуществления;[12] FIG. 4 is a flowchart illustrating a method of generating area information regarding a region of interest by using a second device according to an exemplary embodiment;
[13] Фиг. 5 является блок-схемой последовательности операций, иллюстрирующей, когда модифицируется способ связи между первым устройством и вторым устройством, способ модификации интересующей области, выбранной посредством первого устройства, и предоставления видеоизображения относительно модифицированной области во второе устройство, согласно примерному варианту осуществления;[13] FIG. 5 is a flowchart illustrating when a communication method between a first device and a second device is modified, a method of modifying an area of interest selected by the first device and providing a video image of the modified area to the second device according to an exemplary embodiment;
[14] Фиг. 6 является блок-схемой последовательности операций, иллюстрирующей, когда модифицируется способ связи между первым устройством и вторым устройством, способ предоставления видеоизображения, имеющего модифицированное качество изображений посредством первого устройства, во второе устройство, согласно примерному варианту осуществления;[14] FIG. 6 is a flowchart illustrating when a communication method between a first device and a second device is modified, a method for providing a video image having a modified image quality by the first device to a second device according to an exemplary embodiment;
[15] Фиг. 7 является блок-схемой последовательности операций, иллюстрирующей способ предоставления видеоизображения, включающего в себя объект, соответствующий части видеоизображения, захватываемого посредством использования первого устройства, во второе устройство, согласно другому примерному варианту осуществления;[15] FIG. 7 is a flowchart illustrating a method of providing a video image including an object corresponding to a portion of a video image captured by using the first device to a second device according to another exemplary embodiment;
[16] Фиг. 8А и 8B иллюстрируют пример определения части первого видеоизображения в качестве интересующей области, посредством использования второго устройства, так что объект, включающий в себя точку касания, которой касается пользователь, включен в определенную часть, согласно примерному варианту осуществления;[16] FIG. 8A and 8B illustrate an example of determining a portion of a first video image as an area of interest by using a second device, such that an object including a touch point that a user touches is included in a specific part according to an exemplary embodiment;
[17] Фиг. 9А и 9B иллюстрируют пример определения, в качестве интересующей области, части в предварительно заданном диапазоне из точки касания пользователя, посредством использования второго устройства, согласно примерному варианту осуществления;[17] FIG. 9A and 9B illustrate an example of determining, as a region of interest, a part in a predetermined range from a user's touch point by using a second device according to an exemplary embodiment;
[18] Фиг. 10А и 10B иллюстрируют пример определения части первого видеоизображения в качестве интересующей области посредством использования второго устройства через пользовательский интерфейс для определения части первого видеоизображения, согласно примерному варианту осуществления;[18] FIG. 10A and 10B illustrate an example of determining a portion of a first video image as an area of interest by using a second device through a user interface to determine a portion of a first video image, according to an exemplary embodiment;
[19] Фиг. 11A и 11B иллюстрируют, когда модифицируется способ связи между первым устройством и вторым устройством, пример использования второго устройства для того, чтобы принимать, из первого устройства 100, видеоизображение с модифицированным разрешением, согласно примерному варианту осуществления;[19] FIG. 11A and 11B illustrate when a communication method between a first device and a second device is modified, an example of using a second device to receive, from the
[20] Фиг. 12А и 12B иллюстрируют, когда модифицируется способ связи между первым устройством и вторым устройством, пример использования второго устройства для того, чтобы принимать, из первого устройства 100, видеоизображение с модифицированным качеством изображений, согласно примерному варианту осуществления,[20] FIG. 12A and 12B illustrate when a communication method between a first device and a second device is modified, an example of using a second device to receive, from the
[21] Фиг. 13А и 13B иллюстрируют, когда модифицируется способ связи между первым устройством и вторым устройством, пример использования второго устройства для того, чтобы принимать, из первого устройства 100, видеоизображение с модифицированной частью, согласно примерному варианту осуществления,[21] FIG. 13A and 13B illustrate when a communication method between a first device and a second device is modified, an example of using a second device to receive, from the
[22] Фиг. 14 является блок-схемой, иллюстрирующей первое устройство согласно примерному варианту осуществления;[22] FIG. 14 is a block diagram illustrating a first device according to an exemplary embodiment;
[23] Фиг. 15 является блок-схемой, иллюстрирующей второе устройство согласно примерному варианту осуществления;[23] FIG. 15 is a block diagram illustrating a second device according to an exemplary embodiment;
[24] Фиг. 16 является блок-схемой, иллюстрирующей устройство согласно другому примерному варианту осуществления;[24] FIG. 16 is a block diagram illustrating an apparatus according to another exemplary embodiment;
[25] Фиг. 17А-17C иллюстрируют пример разворачивания части первого видеоизображения, отображаемого на экране второго устройства, согласно примерному варианту осуществления;[25] FIG. 17A-17C illustrate an example of expanding a portion of a first video image displayed on a screen of a second device according to an exemplary embodiment;
[26] Фиг. 18А-18C иллюстрируют пример разворачивания части видеоизображения, отображаемого на экране второго устройства, пошагово согласно примерному варианту осуществления;[26] FIG. 18A-18C illustrate an example of expanding a portion of the video image displayed on the screen of the second device step by step according to an exemplary embodiment;
[27] Фиг. 19А-19C иллюстрируют пример отображения изображения для предварительного просмотра, включающего в себя развернутую часть первого видеоизображения, на втором устройстве, и отображения второго видеоизображения, предоставленного из первого устройства, на втором устройстве, согласно примерному варианту осуществления;[27] FIG. 19A-19C illustrate an example of displaying a preview image including an expanded portion of a first video image on a second device, and displaying a second video image provided from a first device on a second device according to an exemplary embodiment;
[28] Фиг. 20 иллюстрирует пример заголовка пакета по протоколу передачи в реальном времени (RTP) согласно примерному варианту осуществления; и[28] FIG. 20 illustrates an example of a real-time transmission protocol (RTP) packet header according to an exemplary embodiment; and
[29] Фиг. 21 является блок-схемой последовательности операций, иллюстрирующей способ формирования четвертого видеоизображения посредством использования первого устройства согласно примерному варианту осуществления;[29] FIG. 21 is a flowchart illustrating a method of generating a fourth video image by using the first device according to an exemplary embodiment;
[30] Фиг. 22 является блок-схемой последовательности операций, иллюстрирующей способ приема посредством второго устройства, которое осуществляет видеовызов с первым устройством, второго видеоизображения, которое является развернутой частью первого видеоизображения, согласно примерному варианту осуществления;[30] FIG. 22 is a flowchart illustrating a method of receiving, by a second device that makes a video call with a first device, a second video image that is an expanded part of a first video image according to an exemplary embodiment;
[31] Фиг. 23 является блок-схемой последовательности операций, иллюстрирующей способ разворачивания части первого видеоизображения и ее отображения посредством второго устройства, которое осуществляет видеовызов с первым устройством, согласно примерному варианту осуществления;[31] FIG. 23 is a flowchart illustrating a method of expanding a portion of a first video image and displaying it by a second device that makes a video call with a first device according to an exemplary embodiment;
[32] Фиг. 24А-24C иллюстрируют развернутую часть первого видеоизображения, отображаемого на экране второго устройства, вместе с первым видеоизображением, согласно примерному варианту осуществления.[32] FIG. 24A-24C illustrate an expanded portion of a first video image displayed on a screen of a second device, together with a first video image, according to an exemplary embodiment.
Наилучший режим осуществления изобретенияBEST MODE FOR CARRYING OUT THE INVENTION
[33] Согласно аспекту примерного варианта осуществления, предусмотрен способ предоставления изображений, включающий в себя: передачу, во внешнее устройство, первого видеоизображения с первым разрешением, которое преобразовано из исходного видеоизображения с исходным разрешением; прием, из внешнего устройства, информации области относительно интересующей области первого видеоизображения с первым разрешением, которое отображается на экране внешнего устройства; определение, на основе информации области, области, соответствующей интересующей области, исходного видеоизображения с исходным разрешением, при этом определенная область меньше исходного видеоизображения с исходным разрешением; преобразование части исходного видеоизображения с исходным разрешением во второе видеоизображение с первым разрешением, при этом часть соответствует определенной области; и передачу второго видеоизображения во внешнее устройство.[33] According to an aspect of an exemplary embodiment, a method for providing images is provided, including: transmitting, to an external device, a first video image with a first resolution that is converted from an original video image with an original resolution; receiving, from an external device, region information regarding the region of interest of the first video image with a first resolution, which is displayed on the screen of the external device; determining, based on the information of the region, the region corresponding to the region of interest, the original video image with the original resolution, while the determined region is smaller than the original video image with the original resolution; converting part of the original video image with the original resolution to the second video image with the first resolution, while the part corresponds to a certain area; and transmitting the second video image to the external device.
[34] Интересующая область может включать в себя объект, отображаемый в первом видеоизображении, и информация области может быть сформирована посредством внешнего устройства.[34] The region of interest may include an object displayed in the first video image, and the region information may be generated by an external device.
[35] Когда касаются экрана внешнего устройства, интересующая область может выбираться таким образом, что она включает в себя объект, соответствующий точке касания экрана.[35] When the screen of the external device is touched, the region of interest can be selected so that it includes an object corresponding to the touch point of the screen.
[36] Когда касаются экрана внешнего устройства, может выбираться интересующая область, включающая в себя предварительно заданный диапазон вокруг точки касания экрана.[36] When a screen of an external device is touched, an area of interest may be selected including a predetermined range around the touch point of the screen.
[37] При приеме информации области, когда касаются экрана внешнего устройства, информация координат точки касания экрана может приниматься из внешнего устройства.[37] When receiving the area information when the screen of the external device is touched, the coordinate information of the touch point of the screen can be received from the external device.
[38] Когда касаются экрана внешнего устройства, пользовательский интерфейс для выбора интересующей области может отображаться на экране внешнего устройства.[38] When a screen of an external device is touched, a user interface for selecting an area of interest can be displayed on the screen of an external device.
[39] Первое видеоизображение и второе видеоизображение могут представлять собой видеоизображения для видеовызова с внешним устройством, и при передаче первого видеоизображения во внешнее устройство, первое видеоизображение может передаваться во внешнее устройство на основе захваченного видеоизображения, и разрешение захваченного видеоизображения может превышать разрешение потоковой передачи видеовызова.[39] The first video image and the second video image can be video images for a video call with an external device, and when transmitting the first video image to an external device, the first video image can be transmitted to the external device based on the captured video image, and the resolution of the captured video image may exceed the resolution of the video call streaming.
[40] Диапазон интересующей области может определяться согласно типу способа связи, используемого для того, чтобы осуществлять связь с внешним устройством.[40] The range of the region of interest can be determined according to the type of communication method used to communicate with an external device.
[41] Первое разрешение может определяться согласно типу способа связи, используемого для того, чтобы осуществлять связь с внешним устройством.[41] The first resolution may be determined according to the type of communication method used to communicate with an external device.
[42] Способ предоставления изображений дополнительно может включать в себя модификацию первого разрешения согласно модификации способа связи, используемого для того, чтобы осуществлять связь с внешним устройством.[42] The image providing method may further include modifying a first resolution according to a modification of a communication method used to communicate with an external device.
[43] Способ предоставления изображений дополнительно может включать в себя модификацию определенной области согласно модификации способа связи, используемого для того, чтобы осуществлять связь с внешним устройством.[43] The image providing method may further include modifying a specific area according to a modification of a communication method used to communicate with an external device.
[44] При передаче первого видеоизображения во внешнее устройство первое видеоизображение и второе видеоизображение могут передаваться во внешнее устройство на основе захваченного видеоизображения, при этом способ дополнительно включает в себя модификацию определенной области, когда объект, включенный в интересующую область, исчезает из захваченного видеоизображения.[44] When transmitting the first video image to an external device, the first video image and the second video image can be transmitted to the external device based on the captured video image, the method further comprising modifying a certain area when an object included in the region of interest disappears from the captured video image.
[45] Способ предоставления изображений дополнительно может включать в себя, когда объект, который исчезает из захваченного видеоизображения, повторно появляется в захваченном видеоизображении, предоставление, во внешнее устройство, второго видеоизображения только части, включающей в себя объект, который повторно появляется.[45] The image providing method may further include, when an object that disappears from the captured video image reappears in the captured video image, providing, to an external device, the second video image only a portion including the object that reappears.
[46] Информация уведомления, уведомляющая относительно того, что передается второе видеоизображение, может вставляться во второе видеоизображение.[46] Notification information notifying that a second video image is being transmitted may be inserted into the second video image.
[47] Информация уведомления может вставляться в заголовок пакета, соответствующего предварительно заданному кадру второго видеоизображения.[47] The notification information may be inserted in the header of a packet corresponding to a predetermined frame of the second video image.
[48] Пакет может представлять собой пакет по протоколу передачи в реальном времени (RTP), и значение поля RTP-маркера RTP-пакета может составлять 1.[48] The packet may be a real-time transmission protocol (RTP) packet, and the value of the RTP packet field of the RTP packet may be 1.
[49] Пакет может представлять собой RTP-пакет, и информация уведомления может вставляться в поле расширения заголовка RTP-пакета.[49] The packet may be an RTP packet, and notification information may be inserted in the extension field of the RTP packet header.
[50] Информация уведомления может включать в себя информацию области, указывающую часть первого видеоизображения, которая соответствует второму видеоизображению.[50] The notification information may include area information indicating a portion of the first video image that corresponds to the second video image.
[51] Интересующая область может представлять собой область, обозначенную на основе пользовательского ввода на экране внешнего устройства, отображающего первое видеоизображение.[51] The region of interest may be an area designated based on user input on the screen of an external device displaying the first video image.
[52] Согласно аспекту другого примерного варианта осуществления, предусмотрен способ приема изображений, посредством использования устройства, включающий в себя: прием первого видеоизображения из внешнего устройства; предоставление, во внешнее устройство, информации области относительно объекта, включенного в принимаемое первое видеоизображение; и прием, из внешнего устройства, второго видеоизображения, включающего в себя только часть первого видеоизображения, при этом часть включает в себя объект, при этом разрешение второго видеоизображения превышает разрешение части первого видеоизображения, и часть первого видеоизображения, включающая в себя объект, определяется посредством внешнего устройства на основе предоставленной информации области.[52] According to an aspect of another exemplary embodiment, there is provided a method for receiving images by using a device, including: receiving a first video image from an external device; providing, to an external device, area information regarding an object included in the received first video image; and receiving, from an external device, a second video image including only a portion of the first video image, the part including an object, wherein the resolution of the second video image is higher than the resolution of the part of the first video image, and the part of the first video image including the object is determined by the external devices based on the provided area information.
[53] Способ приема изображений дополнительно может включать в себя: выбор, на основе пользовательского ввода, интересующей области, связанной с объектом, включенным в принимаемое первое видеоизображение; и формирование информации области относительно выбранной интересующей области.[53] The image receiving method may further include: selecting, based on user input, the region of interest associated with the object included in the received first video image; and generating area information regarding the selected area of interest.
[54] При выборе интересующей области, когда касаются экрана устройства, отображающего первое видеоизображение, интересующая область может выбираться таким образом, что она включает в себя объект, включенный в принимаемое первое видеоизображение, при этом объект включает в себя точку касания экрана.[54] When selecting a region of interest, when the screen of the device displaying the first video image is touched, the region of interest can be selected so that it includes an object included in the received first video image, while the object includes a touch point of the screen.
[55] При выборе интересующей области, когда касаются экрана устройства, отображающего первое видеоизображение, может выбираться область предварительно заданного диапазона вокруг точки касания экрана.[55] When selecting an area of interest, when the screen of the device displaying the first video image is touched, an area of a predetermined range around the touch point of the screen can be selected.
[56] При предоставлении информации области, когда касаются экрана устройства, отображающего первое видеоизображение, информация координат точки касания экрана может предоставляться во внешнее устройство.[56] When providing area information when a screen of a device displaying the first video image is touched, coordinate information of a touch point of the screen may be provided to an external device.
[57] Способ приема изображений дополнительно может включать в себя, когда касаются экрана устройства, отображающего первое видеоизображение, отображение пользовательского интерфейса для выбора интересующей области.[57] The image receiving method may further include, when a screen of a device displaying the first video image is touched, displaying a user interface for selecting an area of interest.
[58] Первое видеоизображение и второе видеоизображение могут представлять собой видеоизображения для видеовызова с внешним устройством, и первое видеоизображение и второе видеоизображение могут предоставляться посредством внешнего устройства на основе видеоизображения, захваченного посредством внешнего устройства, и разрешение захваченного видеоизображения может превышать разрешение потоковой передачи видеовызова.[58] The first video image and the second video image may be video images for a video call with an external device, and the first video image and the second video image may be provided by an external device based on the video image captured by the external device, and the resolution of the captured video image may exceed the resolution of the video call streaming transmission.
[59] Диапазон интересующей области может определяться посредством устройства, согласно типу способа связи, используемого для того, чтобы осуществлять связь с внешним устройством.[59] The range of the region of interest can be determined by the device according to the type of communication method used to communicate with an external device.
[60] Разрешение, по меньшей мере, одного из первого видеоизображения и второго видеоизображения может определяться посредством внешнего устройства, согласно типу способа связи, используемого для того, чтобы осуществлять связь с внешним устройством.[60] The resolution of at least one of the first video image and the second video image can be determined by an external device according to the type of communication method used to communicate with the external device.
[61] Разрешение, по меньшей мере, одного из первого видеоизображения и второго видеоизображения может быть модифицировано посредством внешнего устройства, согласно модификации способа связи, используемого для того, чтобы осуществлять связь с внешним устройством.[61] The resolution of at least one of the first video image and the second video image can be modified by an external device according to a modification of the communication method used to communicate with an external device.
[62] Часть может быть модифицирована посредством использования внешнего устройства, согласно модификации способа связи, используемого для того, чтобы осуществлять связь с внешним устройством.[62] The part may be modified by using an external device, according to a modification of the communication method used to communicate with an external device.
[63] Первое видеоизображение и второе видеоизображение могут предоставляться посредством внешнего устройства на основе видеоизображения, захваченного посредством использования внешнего устройства, и когда объект, который присутствует в захваченном изображении, исчезает из захваченного видеоизображения, может модифицироваться часть первого видеоизображения, при этом способ приема изображений дополнительно включает в себя: прием, из внешнего устройства, второго видеоизображения, включающего в себя только модифицированную часть.[63] The first video image and the second video image can be provided by an external device based on a video image captured by using an external device, and when an object that is present in the captured image disappears from the captured video image, a portion of the first video image can be modified, while the image receiving method is further includes: receiving, from an external device, a second video image that includes only the modified part.
[64] Способ приема изображений дополнительно может включать в себя, когда объект, который исчезает из захваченного видеоизображения, повторно появляется в захваченном видеоизображении, прием, из внешнего устройства, второго видеоизображения, включающего в себя только часть, включающую в себя повторно появившийся объект.[64] The image receiving method may further include, when an object that disappears from the captured video image reappears in the captured video image, receiving, from an external device, a second video image including only a portion including the reappeared object.
[65] Согласно аспекту другого примерного варианта осуществления, предусмотрено устройство, включающее в себя: запоминающее устройство, сконфигурированное с возможностью хранить, по меньшей мере, одну программу; и процессор, сконфигурированный с возможностью предоставлять захваченное видеоизображение во внешнее устройство посредством выполнения, по меньшей мере, одной программы, при этом, по меньшей мере, одна программа включает в себя команды для того, чтобы передавать первое видеоизображение во внешнее устройство; принимать, из внешнего устройства, информацию области, соответствующую объекту, включенному в первое видеоизображение; и предоставлять, на основе информации области, второе видеоизображение, включающее в себя только часть первого видеоизображения, которая включает в себя объект, при этом разрешение второго видеоизображения превышает разрешение части первого видеоизображения.[65] According to an aspect of another exemplary embodiment, a device is provided, including: a storage device configured to store at least one program; and a processor configured to provide the captured video image to the external device by executing at least one program, wherein at least one program includes instructions for transmitting the first video image to the external device; receive, from an external device, area information corresponding to an object included in the first video image; and provide, based on the area information, a second video image including only a portion of the first video image that includes an object, wherein the resolution of the second video image exceeds the resolution of the portion of the first video image.
[66] Информация области может быть информацией относительно интересующей области, выбранной посредством внешнего устройства, и формируется посредством внешнего устройства.[66] The area information may be information regarding a region of interest selected by an external device, and is generated by an external device.
[67] Когда касаются экрана внешнего устройства, отображающего первое видеоизображение, может выбираться интересующая область, которая включает в себя объект, включающий в себя точку касания, на экране.[67] When a screen of an external device displaying the first video image is touched, a region of interest that includes an object including a touch point on the screen can be selected.
[68] Когда касаются экрана внешнего устройства, отображающего первое видеоизображение, может выбираться интересующая область предварительно заданного диапазона вокруг точки касания экрана.[68] When the screen of an external device displaying the first video image is touched, a region of interest of a predetermined range around the touch point of the screen can be selected.
[69] При приеме информации области, когда касаются экрана внешнего устройства, отображающего первое видеоизображение, информация координат точки касания внешнего устройства может приниматься из внешнего устройства.[69] When receiving area information, when the screen of the external device displaying the first video image is touched, the coordinate information of the touch point of the external device can be received from the external device.
[70] Когда касаются экрана внешнего устройства, пользовательский интерфейс для выбора интересующей области может отображаться на экране внешнего устройства.[70] When a screen of an external device is touched, a user interface for selecting an area of interest can be displayed on the screen of an external device.
[71] Первое видеоизображение и второе видеоизображение могут представлять собой видеоизображения для видеовызова с внешним устройством, и при передаче первого видеоизображения во внешнее устройство, первое видеоизображение может передаваться во внешнее устройство на основе захваченного видеоизображения, и разрешение захваченного видеоизображения может превышать разрешение потоковой передачи видеовызова.[71] The first video image and the second video image can be video images for a video call with an external device, and when transmitting the first video image to an external device, the first video image can be transmitted to the external device based on the captured video image, and the resolution of the captured video image may exceed the resolution of the video call streaming.
[72] Диапазон интересующей области может определяться посредством внешнего устройства согласно типу способа связи, используемого для того, чтобы осуществлять связь с внешним устройством.[72] The range of the region of interest can be determined by an external device according to the type of communication method used to communicate with the external device.
[73] Разрешение, по меньшей мере, одного из первого видеоизображения и второго видеоизображения может определяться согласно типу способа связи, используемого для того, чтобы осуществлять связь с внешним устройством.[73] The resolution of at least one of the first video image and the second video image can be determined according to the type of communication method used to communicate with an external device.
[74] Устройство дополнительно может включать в себя команды для того, чтобы выполнять модификацию разрешения, по меньшей мере, одного из первого видеоизображения и второго видеоизображения согласно модификации способа связи, используемого для того, чтобы осуществлять связь с внешним устройством.[74] The device may further include instructions for modifying the resolution of at least one of the first video image and the second video image according to a modification of the communication method used to communicate with an external device.
[75] Устройство дополнительно может включать в себя команды для того, чтобы выполнять: модификацию части согласно модификации способа связи, используемого для того, чтобы осуществлять связь с внешним устройством; и предоставление второго видеоизображения модифицированной части во внешнее устройство.[75] The device may further include instructions for executing: modifying a part according to a modification of a communication method used to communicate with an external device; and providing a second video image of the modified part to an external device.
[76] При передаче первого видеоизображения во внешнее устройство первое видеоизображение и второе видеоизображение могут передаваться во внешнее устройство на основе захваченного видеоизображения, при этом устройство дополнительно включает в себя команды для того, чтобы выполнять: модификацию части, когда объект исчезает из захваченного видеоизображения; и предоставление второго видеоизображения модифицированной части во внешнее устройство.[76] When transmitting the first video image to an external device, the first video image and the second video image can be transmitted to the external device based on the captured video image, the device further including instructions for: modifying the part when the object disappears from the captured video image; and providing a second video image of the modified part to an external device.
[77] Устройство дополнительно может включать в себя команды для того, чтобы выполнять, когда объект, который исчезает из захваченного видеоизображения, повторно появляется в захваченном видеоизображении, предоставление, во внешнее устройство, второго видеоизображения только части, включающей в себя объект, который повторно появляется.[77] The device may further include instructions for executing, when an object that disappears from the captured video image reappears in the captured video image, providing, to the external device, the second video image only a portion including the object that reappears .
[78] Согласно аспекту другого примерного варианта осуществления, предусмотрено устройство, включающее в себя: запоминающее устройство, сконфигурированное с возможностью хранить, по меньшей мере, одну программу; и процессор, сконфигурированный с возможностью предоставлять захваченное видеоизображение во внешнее устройство посредством выполнения, по меньшей мере, одной программы, при этом, по меньшей мере, одна программа включает в себя команды для того, чтобы принимать первое видеоизображение из внешнего устройства; предоставлять, во внешнее устройство, информацию области относительно объекта, включенного в принимаемое первое видеоизображение; и принимать, из внешнего устройства, второе видеоизображение, включающее в себя только часть первого видеоизображения, при этом часть первого видеоизображения включает в себя объект, при этом разрешение второго видеоизображения превышает разрешение части первого видеоизображения, при этом часть первого видеоизображения, включающая в себя объект, определяется на основе предоставленной информации области.[78] According to an aspect of another exemplary embodiment, a device is provided, including: a storage device configured to store at least one program; and a processor configured to provide the captured video image to the external device by executing at least one program, wherein at least one program includes instructions for receiving the first video image from the external device; provide, to an external device, area information regarding an object included in the received first video image; and receive, from an external device, a second video image including only a portion of the first video image, wherein the part of the first video image includes an object, wherein the resolution of the second video image exceeds the resolution of the part of the first video image, while the part of the first video image including the object, It is determined based on the provided area information.
[79] Согласно аспекту другого примерного варианта осуществления, предусмотрен способ предоставления изображений, включающий в себя: передачу, во внешнее устройство, первого видеоизображения, имеющего множество первых кадров; прием, из внешнего устройства, информации области, связанной с объектом, включенным в первое видеоизображение; выбор, на основе информации области, первого кадра, включающего в себя объект, из множества первых кадров; и передачу второго видеоизображения, включающего в себя множество вторых кадров, которые включают в себя только часть выбранного первого кадра, во внешнее устройство.[79] According to an aspect of another exemplary embodiment, a method for providing images is provided, including: transmitting, to an external device, a first video image having a plurality of first frames; receiving, from an external device, area information associated with an object included in the first video image; selecting, based on the information of the region, a first frame including an object from a plurality of first frames; and transmitting a second video image including a plurality of second frames, which include only a portion of the selected first frame, to an external device.
[80] Согласно аспекту другого примерного варианта осуществления, предусмотрен способ предоставления изображений, включающий в себя: передачу, во внешнее устройство, первого видеоизображения, имеющего множество первых кадров; прием, из внешнего устройства, информации области, связанной с объектом, включенным в первое видеоизображение; выбор, на основе информации области, части, которая включает в себя объект, из множества первых кадров; и передачу второго видеоизображения, включающего в себя множество вторых кадров, которые включают в себя только выбранные части, во внешнее устройство.[80] According to an aspect of another exemplary embodiment, a method for providing images is provided, including: transmitting, to an external device, a first video image having a plurality of first frames; receiving, from an external device, area information associated with an object included in the first video image; the selection, based on the information of the area, the part that includes the object, from the set of first frames; and transmitting a second video image including a plurality of second frames, which include only selected parts, to an external device.
[81] Согласно аспекту другого примерного варианта осуществления, предусмотрен способ предоставления изображений, включающий в себя: передачу, во внешнее устройство, первого изображения с первым разрешением, соответствующего экрану выполнения приложения; прием информации области относительно интересующей области первого изображения, отображаемого на экране внешнего устройства, из внешнего устройства; определение, на основе информации области, части первого изображения, соответствующего интересующей области, при этом часть меньше первого изображения; преобразование первого изображения во второе изображение на основе определенной части; и передачу второго изображения во внешнее устройство с первым разрешением.[81] According to an aspect of another exemplary embodiment, a method for providing images is provided, including: transmitting, to an external device, a first image with a first resolution corresponding to an application execution screen; receiving area information regarding the region of interest of the first image displayed on the screen of the external device from the external device; determining, based on the information of the region, a part of the first image corresponding to the region of interest, the part being smaller than the first image; converting the first image into a second image based on a specific part; and transmitting the second image to an external device with a first resolution.
[82] Согласно аспекту другого примерного варианта осуществления, предусмотрен способ предоставления изображений, включающий в себя: передачу, во внешнее устройство, первого видеоизображения; прием, из внешнего устройства, информации области относительно области первого видеоизображения; формирование второго видеоизображения на основе информации области; и передачу, во внешнее устройство, второго видеоизображения.[82] According to an aspect of another exemplary embodiment, a method for providing images is provided, including: transmitting, to an external device, a first video image; receiving, from an external device, region information regarding the region of the first video image; the formation of a second video image based on the information of the area; and transmitting, to an external device, a second video image.
[83] Разрешение второго видеоизображения может превышать разрешение области первого видеоизображения.[83] The resolution of the second video image may exceed the resolution of the area of the first video image.
[84] Второе видеоизображение может включать в себя объект, отображаемый в области первого видеоизображения.[84] The second video image may include an object displayed in a region of the first video image.
[85] Второе видеоизображение может включать в себя видео предварительно заданного диапазона вокруг области первого видеоизображения.[85] The second video image may include a video of a predetermined range around an area of the first video image.
[86] Согласно аспекту другого примерного варианта осуществления, предусмотрен способ приема изображений, посредством использования устройства, включающий в себя: прием первого видеоизображения из внешнего устройства; предоставление, во внешнее устройство, информации области относительно области первого видеоизображения; и прием, из внешнего устройства, второго видеоизображения, включающего в себя только часть первого видеоизображения, соответствующую информации области.[86] According to an aspect of another exemplary embodiment, there is provided a method for receiving images by using a device, including: receiving a first video image from an external device; providing, to an external device, area information regarding the area of the first video image; and receiving, from an external device, a second video image including only a portion of the first video image corresponding to area information.
[87] Разрешение второго видеоизображения может превышать разрешение области первого видеоизображения.[87] The resolution of the second video image may exceed the resolution of the area of the first video image.
[88] Часть первого видеоизображения может представлять собой область предварительно заданного диапазона вокруг области первого видеоизображения.[88] A portion of the first video image may be a region of a predetermined range around a region of the first video image.
[89] Информация области может включать в себя информацию координат области первого видеоизображения.[89] The area information may include coordinate information of a region of the first video image.
[90] Способ дополнительно может включать в себя отображение пользовательского интерфейса для выбора области первого видеоизображения.[90] The method may further include displaying a user interface for selecting an area of the first video image.
Наилучший режим осуществления изобретенияBEST MODE FOR CARRYING OUT THE INVENTION
[91] К прилагаемым чертежам для иллюстрации примерных вариантов осуществления следует обращаться для того, чтобы получать достаточное понимание примерных вариантов осуществления. В дальнейшем в этом документе, подробно описываются примерные варианты осуществления со ссылкой на прилагаемые чертежи. Аналогичные ссылки с номерами на чертежах обозначают аналогичные элементы. В настоящем описании изобретения, когда составляющий элемент "соединяется" или "соединен" с другим составляющим элементом, составляющий элемент контактирует или соединяется с другим составляющим элементом не только непосредственно, но также и электрически, по меньшей мере, через один из других составляющих элементов, размещенных между ними. Кроме того, когда часть может "включать в себя" определенный составляющий элемент, если не указано иное, она не может истолковываться как исключающая другой составляющий элемент, но может истолковываться как дополнительно включающая в себя другие составляющие элементы.[91] The accompanying drawings to illustrate exemplary embodiments should be consulted in order to gain a sufficient understanding of the exemplary embodiments. Hereinafter, exemplary embodiments are described in detail with reference to the accompanying drawings. Similar references with numbers in the drawings indicate like elements. In the present description of the invention, when the constituent element is “connected” or “connected” to another constituent element, the constituent element contacts or connects to the other constituent element not only directly but also electrically through at least one of the other constituent elements placed between them. In addition, when a part may “include” a specific constituent element, unless otherwise indicated, it cannot be construed to exclude another constituent element, but may be construed to further include other constituent elements.
[92] Такие выражения, как "по меньшей мере, один из", предваряющие список элементов, модифицируют весь список элементов и не модифицируют отдельные элементы списка.[92] Expressions such as “at least one of” preceding the list of items modify the entire list of items and do not modify individual items of the list.
[93] Фиг. 1 является схематичным видом системы предоставления изображений согласно примерному варианту осуществления.[93] FIG. 1 is a schematic view of an image providing system according to an exemplary embodiment.
[94] Ссылаясь на фиг. 1, первое устройство 100 и второе устройство 200 могут иметь возможность осуществлять видеовызов друг с другом, и первое устройство 100 может предоставлять видеоизображение, которое захватывается посредством использования первого устройства 100, во второе устройство 200. Кроме того, второе устройство 200 может предоставлять видеоизображение, которое захватывается посредством использования второго устройства 200, в первое устройство 100.[94] Referring to FIG. 1, the
[95] В дальнейшем в этом документе, для удобства описания поясняется вариант осуществления, в котором первое устройство 100 предоставляет видеоизображение во второе устройство 200 в системе предоставления изображений согласно текущему примерному варианту осуществления. Кроме того, видеоизображение, захваченное посредством использования первого устройства 100, описывается как контент, предоставленный посредством первого устройства 100 во второе устройство 200, но контент не ограничен этим, и примеры контента, который первое устройство 100 может предоставлять во второе устройство 200, включают в себя видеоизображение, фотографическое изображение, захваченное изображение и изображение выполнения приложения.[95] Hereinafter, for convenience of description, an embodiment is explained in which the
[96] Первое устройство 100 может предоставлять первое видеоизображение во второе устройство 200 на основе видеоизображения, захваченного посредством использования первого устройства 100, и принимать информацию области относительно объекта, включенного в первое видеоизображение, из второго устройства 200. Кроме того, первое устройство 100 может отслеживать предварительно определенный объект, включенный в первое видеоизображение, на основе принимаемой информации области, и предоставлять второе видеоизображение, включающее в себя только часть первого видеоизображения, включающую в себя отслеживаемый объект, во второе устройство 200.[96] The
[97] Когда разрешение видеоизображения, захватываемого посредством использования первого устройства 100, превышает разрешение потоковой передачи видеоизображения, передаваемого между первым устройством 100 и вторым устройством 200, первое устройство 100 может предоставлять второе видеоизображение относительно части захватываемого видеоизображения во второе устройство 200.[97] When the resolution of the video image captured by using the
[98] Первое устройство 100 и второе устройство 200 представляют собой устройства, допускающие передачу видеоизображений, изображений и т.п. в другое устройство, и примеры первых и вторых устройств 100 и 200 включают в себя смартфон, мобильный телефон, персональное цифровое устройство (PDA), переносной компьютер, мультимедийный проигрыватель, устройство по стандарту глобальной системы позиционирования (GPS), другие мобильные вычислительные устройства и другие немобильные вычислительные устройства. Тем не менее, первое и второе устройства 100 и 200 не ограничены этим.[98] The
[99] По меньшей мере, три устройства могут осуществлять видеотелефонный вызов друг с другом одновременно. Например, первое устройство 100, второе устройство 200 и третье устройство (не показано) могут совместно осуществлять видеовызов. В этом случае, первое устройство 100 может предоставлять первое видеоизображение во второе устройство 200 и третье устройство (не показано). Кроме того, когда второе устройство 200 выбирает часть первого видеоизображения, первое устройство 100 может предоставлять видеоизображение, связанное с выбранной частью, во второе устройство 200 и третье устройство (не показано). Если второе устройство 200 и третье устройство (не показано), соответственно, выбирают часть первого видеоизображения, первое устройство 100 может предоставлять видеоизображение относительно части, выбранной посредством второго устройства 200, во второе устройство 200 и другое видеоизображение относительно части, выбранной посредством третьего устройства (не показано), в третье устройство (не показано).[99] At least three devices can make a videophone call with each other at the same time. For example, a
[100] Первое устройство 100 может предоставлять третье видеоизображение, соответствующее экрану выполнения приложения, выполняемого в первом устройстве 100, во второе устройство 200. В этом случае, второе устройство 200 может выбирать часть принимаемого третьего видеоизображения и принимать четвертое видеоизображение относительно выбранной части из первого устройства 100.[100] The
[101] Фиг. 2А и 2B иллюстрируют изображение, включающее в себя объект, соответствующий части изображения, захваченного посредством использования первого устройства 100, отображаемой на втором устройстве 200, согласно примерному варианту осуществления. Подробно, фиг. 2А иллюстрирует первое видеоизображение согласно примерному варианту осуществления; и фиг. 2B иллюстрирует второе видеоизображение согласно примерному варианту осуществления.[101] FIG. 2A and 2B illustrate an image including an object corresponding to a portion of an image captured by using the
[102] Первое устройство 100 может предоставлять первое видеоизображение во второе устройство 200 на основе видеоизображения, которое в данный момент захватывается, и может проверять объект 22, включенный в первое видеоизображение. Кроме того, первое устройство 100 может предоставлять второе видеоизображение, включающее в себя только часть первого видеоизображения, которая включает в себя проверенный объект 22, во второе устройство 200.[102] The
[103] Первое устройство 100 может проверять объект 22, включенный в предварительно определенную часть 20 в захватываемом видеоизображении, но не ограничено этим. Первое устройство 100 также может проверять объект 22 в первом видеоизображении, предоставленном во второе устройство 200.[103] The
[104] Фиг. 3 является блок-схемой последовательности операций, иллюстрирующей способ предоставления видеоизображения, включающего в себя объект, соответствующий части видеоизображения, захватываемого посредством использования первого устройства 100, во второе устройство 200, согласно примерному варианту осуществления.[104] FIG. 3 is a flowchart illustrating a method of providing a video image including an object corresponding to a portion of a video image captured by using the
[105] На этапе S300, первое устройство 100 предоставляет первое видеоизображение во второе устройство 200. Первое устройство 100 может предоставлять первое видеоизображение во второе устройство 200 на основе видеоизображения, которое захватывается. Первое устройство 100 может предоставлять видеоизображение, которое захватывается, в качестве первого видеоизображения без дополнительной обработки, во второе устройство 200. Кроме того, первое устройство 100 может обрабатывать захватываемое видеоизображение и предоставлять обработанное видеоизображение в качестве первого видеоизображения во второе устройство 200. В этом случае, первое устройство 100 может модифицировать разрешение или формат захватываемого видеоизображения. Например, когда разрешение захватываемого видеоизображения превышает разрешение потоковой передачи, которое обеспечивает возможность непрерывной потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200, первое устройство 100 модифицирует разрешение захватываемого видеоизображения таким образом, что оно является идентичным разрешению потоковой передачи, и может предоставлять первое видеоизображение, имеющее модифицированное разрешение, во второе устройство 200. Кроме того, первое видеоизображение может иметь множество первых кадров.[105] In step S300, the
[106] Первое устройство 100 может передавать первое видеоизображение, имеющее исходное разрешение, во второе устройство 200 с первым разрешением. Первое устройство 100 может модифицировать исходное разрешение первого видеоизображения на первое разрешение, и первое устройство 100 может передавать первое видеоизображение, имеющее первое разрешение, во второе устройство 200. В этом случае, первое устройство 100 может получать информацию относительно разрешения дисплея, включенного во второе устройство 200, заранее и сохранять ее и определять первое разрешение на основе разрешения дисплея, включенного во второе устройство 200.[106] The
[107] Первое устройство 100 может предоставлять третье видеоизображение, соответствующее экрану выполнения приложения, выполняемого в первом устройстве 100, во второе устройство 200. Первое устройство 100 может предоставлять третье видеоизображение с третьим разрешением во второе устройство 200.[107] The
[108] На этапе S310, второе устройство 200 отображает принимаемое первое видеоизображение. Второе устройство 200 может отображать принимаемое первое видеоизображение на экране второго устройства 200. Второе устройство 200 может отображать первое видеоизображение с первым разрешением на экране второго устройства 200.[108] In step S310, the
[109] Между тем, когда второе устройство 200 принимает третье видеоизображение, соответствующее экрану выполнения приложения, выполняемого в первом устройстве 100, второе устройство 200 может отображать принимаемое третье видеоизображение. Второе устройство 200 может отображать третье видеоизображение с третьим разрешением.[109] Meanwhile, when the
[110] На этапе S320, второе устройство 200 формирует информацию области относительно объекта, включенного в первое видеоизображение. Второе устройство 200 может выбирать часть первого видеоизображения в качестве интересующей области на основе пользовательского ввода и может формировать информацию области относительно выбранной интересующей области. Кроме того, второе устройство 200 может выбирать предварительно определенный объект, включенный в первое видеоизображение, и формировать информацию области относительно выбранного объекта.[110] In step S320, the
[111] Второе устройство 200 может принимать сенсорный ввод пользователя относительно первого видеоизображения и выбирать интересующую область на основе позиции сенсорного ввода. Подробно, когда пользователь касается предварительно определенной точки в первом видеоизображении, второе устройство 200 идентифицирует объект, включающий в себя позицию касания, и выбирает область, включающую в себя идентифицированный объект. Например, когда касаются лица в позиции касания первого видеоизображения, второе устройство 200 может идентифицировать лицо, которое представляет собой объект, включенный в позицию касания. Кроме того, второе устройство 200 может выбирать область, включающую в себя идентифицированное лицо, в качестве интересующей области.[111] The
[112] Когда пользователь касается предварительно определенной точки первого видеоизображения, второе устройство 200 может выбирать область предварительно заданного диапазона из точки касания, в качестве интересующей области. Например, второе устройство 200 может выбирать предварительно определенную прямоугольную область вокруг точки касания в качестве интересующей области.[112] When a user touches a predetermined point of the first video image, the
[113] Второе устройство 200 может отображать пользовательский интерфейс на экране для пользователя, чтобы выбирать часть первого видеоизображения, в качестве интересующей области. Например, второе устройство 200 может отображать прямоугольник в части первого видеоизображения и предоставлять пользовательский интерфейс, так что пользователь может модифицировать размер прямоугольника посредством касания и перетаскивания кадра с прямоугольником.[113] The
[114] Хотя второе устройство 200 выбирает часть первого видеоизображения в качестве интересующей области на основе пользовательского ввода, примерные варианты осуществления не ограничены этим. Второе устройство 200 может распознавать лицо, включенное в первое видеоизображение, без дополнительного пользовательского ввода и выбирать предварительно определенную область, включающую в себя лицо, в качестве интересующей области.[114] Although the
[115] Размер выбранной интересующей области в первом видеоизображении может определяться на основе разрешения потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200. Верхний предел интересующей поверхностной области в первом видеоизображении может определяться на основе разрешения потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200.[115] The size of the selected region of interest in the first video image can be determined based on the resolution of the streaming data transmitted between the
[116] Второе устройство 200 может формировать информацию координат выбранной интересующей области. Второе устройство 200 может формировать значение координаты, указывающее позицию выбранной интересующей области, из числа координат всего первого видеоизображения. Кроме того, второе устройство 200 может формировать значение координаты, указывающее позицию точки сенсорного ввода, из всего первого видеоизображения.[116] The
[117] Второе устройство 200 может формировать информацию области относительно интересующей области каждого из множества первых кадров, включенных в первое видеоизображение.[117] The
[118] Когда третье видеоизображение, соответствующее экрану выполнения приложения, выполняемого в первом устройстве 100, предоставляется во второе устройство 200, второе устройство 200 может выбирать часть третьего видеоизображения и формировать информацию области относительно выбранной части.[118] When the third video image corresponding to the execution screen of the application running in the
[119] На этапе S330, второе устройство 200 предоставляет сформированную информацию области относительно интересующей области в первое устройство 100. Второе устройство 200 может предоставлять значение координаты выбранной интересующей области в первое устройство 100. Кроме того, второе устройство 200 может предоставлять значение координаты точки сенсорного ввода, введенной пользователем, в первое устройство 100.[119] In step S330, the
[120] На этапе S340, первое устройство 100 идентифицирует объект, связанный с информацией области. На этапе S340, первое устройство 100 может идентифицировать объект в первом видеоизображении на основе принимаемой информации области. Например, когда объект, включенный в первое видеоизображение, соответствующее принимаемой информации области, является лицом, первое устройство 100 может идентифицировать лицо из первого видеоизображения. Кроме того, объект, связанный с принимаемой информацией области, может быть идентифицирован из каждого из множества первых кадров, включенных в первое видеоизображение.[120] In step S340, the
[121] Первое устройство 100 может идентифицировать объект из захватываемого видеоизображения на основе принимаемой информации области. Принимаемая информация области является информацией области относительно части первого видеоизображения, и в силу этого первое устройство 100 может проверять часть, соответствующую части первого видеоизображения, соответствующей принимаемой информации области, из захватываемого видеоизображения. Кроме того, первое устройство 100 может идентифицировать объект, включенный в соответствующую часть, из захватываемого видеоизображения.[121] The
[122] Первое устройство 100 может идентифицировать объект, включенный в захватываемое видеоизображение, посредством использования объекта, идентифицированного из первого видеоизображения. Первое устройство 100 может идентифицировать объект, который является аналогичным изображению объекта, идентифицированного из первого видеоизображения, из захватываемого видеоизображения. То, являются объекты аналогичными или нет, может определяться различными способами. Например, первое устройство 100 может определять то, являются объекты аналогичными или нет, посредством сравнения, по меньшей мере, одного из размера, цвета и формы объекта. Альтернативно, первое устройство 100 может сравнивать части различных объектов друг с другом, чтобы определять то, являются объекты аналогичными или нет.[122] The
[123] Если первое устройство 100 принимает информацию области части третьего видеоизображения, соответствующего экрану выполнения приложения, выполняемого в первом устройстве 100, из второго устройства 200, первое устройство 100 может идентифицировать объект из третьего видеоизображения на основе принимаемой информации области.[123] If the
[124] На этапе S350, первое устройство 100 отслеживает идентифицированный объект. Первое устройство 100 может отслеживать объект, идентифицированный из первого видеоизображения. Кроме того, первое устройство 100 может отслеживать объект, идентифицированный из видеоизображения, захваченного посредством использования первого устройства 100. Видеоизображение, захваченное посредством использования первого устройства 100, включает в себя видеоизображение, которое в данный момент захватывается посредством использования первого устройства 100. Идентифицированный объект может перемещаться или вращаться внутри видеоизображения, и первое устройство 100 может отслеживать объект внутри видеоизображения на основе формы и цвета объекта. Отслеживание идентифицированного объекта означает, в случае, когда объект перемещается, проверку позиции движущегося объекта внутри видеоизображения и проверку области, в которую включен объект, но отслеживание не ограничено этим.[124] In step S350, the
[125] На этапе S350, первое устройство 100 может выбирать кадр, включающий в себя идентифицированный объект, из множества первых кадров первого видеоизображения. Кроме того, первое устройство 100 может идентифицировать часть, включающую в себя идентифицированный объект, из множества первых кадров первого видеоизображения.[125] In step S350, the
[126] Когда первое устройство 100 принимает информацию области части третьего видеоизображения, соответствующего экрану выполнения приложения, выполняемого в первом устройстве 100, из второго устройства 200, первое устройство 100 может отслеживать объект в третьем видеоизображении.[126] When the
[127] На этапе S360, первое устройство 100 предоставляет второе видеоизображение, включающее в себя только часть, включающую в себя идентифицированный объект, во второе устройство 200. Первое устройство 100 может вырезать часть, включающую в себя идентифицированный объект, из захваченного видеоизображения и предоставлять вырезанную часть в качестве второго видеоизображения во второе устройство 200.[127] In step S360, the
[128] Подробно, первое устройство 100 может определять область, соответствующую интересующей области на экране первого видеоизображения, имеющего исходное разрешение, на основе принимаемой информации области. Кроме того, первое устройство 100 может преобразовывать первое видеоизображение во второе видеоизображение таким образом, что только определенная область включена во второе видеоизображение. Кроме того, первое устройство 100 может предоставлять второе видеоизображение с первым разрешением во второе устройство 200. Первое видеоизображение с первым разрешением может быть преобразовано из первого видеоизображения с исходным разрешением. Например, когда исходное разрешение первого видеоизображения составляет 1000×1000, и первое разрешение второго изображения составляет 100×100, первое устройство 100 может преобразовывать часть первого видеоизображения, соответствующую определенной области, во второе видеоизображение, имеющее разрешение 100×100, и передавать второе видеоизображение с разрешением 100×100 во второе устройство 200.[128] In detail, the
[129] Первое устройство 100 может отличать часть, включающую в себя идентифицированный объект, из множества первых кадров первого видеоизображения и предоставлять второе видеоизображение, включающее в себя множество вторых кадров, включающих в себя только часть из множества первых кадров, во внешнее устройство.[129] The
[130] Когда первое устройство 100 выбирает кадр, включающий в себя идентифицированный объект, из множества первых кадров первого видеоизображения, первое устройство 100 может предоставлять второе видеоизображение, имеющее множество вторых кадров, включающих в себя только часть выбранного кадра, во внешнее устройство. В этом случае, эта часть может представлять собой интересующую область. Кроме того, первое устройство 100 может вырезать часть, соответствующую интересующей области, согласно выбранному кадру, за счет этого формируя второй кадр для выбранного кадра.[130] When the
[131] Помимо этого, первое устройство 100 может определять размер области, соответствующей второму видеоизображению, согласно способу связи между первым устройством 100 и вторым устройством 200.[131] In addition, the
[132] Второе видеоизображение может включать в себя множество вторых кадров, включающих в себя только часть кадра, выбранного на этапе S350, но не ограничено этим. Кроме того, второе видеоизображение может включать в себя множество вторых кадров, включающих в себя только отличающуюся часть на этапе S350, но не ограничено этим.[132] The second video image may include a plurality of second frames including but not limited to a portion of the frame selected in step S350. In addition, the second video image may include a plurality of second frames including but not limited to a different part in step S350.
[133] Первое устройство 100 может определять качество изображений или разрешение второго видеоизображения согласно способу связи между первым устройством 100 и вторым устройством 200. Например, когда разрешение части кадра, включающей в себя идентифицированный объект, меньше разрешения потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200, первое устройство 100 может увеличивать разрешение или качество изображений части, включающей в себя идентифицированный объект. Помимо этого, например, когда разрешение части кадра, включающей в себя идентифицированный объект, меньше разрешения потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200, первое устройство 100 может увеличивать разрешение или качество изображений части кадра, включающей в себя идентифицированный объект.[133] The
[134] Примеры способа связи между первым устройством 100 и вторым устройством 200 включают в себя, без ограничения, связь по стандарту третьего поколения (3G), связь по стандарту четвертого поколения (4G) и связь по стандарту высококачественной беспроводной связи (Wi-Fi).[134] Examples of a communication method between the
[135] Когда модифицируется способ связи между первым устройством 100 и вторым устройством 200, первое устройство 100 может модифицировать размер интересующей области, соответствующей второму видеоизображению, или качество изображений для второго видеоизображения. Способ связи между первым устройством 100 и вторым устройством 200 может быть модифицирован, когда, по меньшей мере, одно из первого устройства 100 и второго устройства 200 выполняет передачу обслуживания.[135] When the communication method between the
[136] Помимо этого, когда идентифицированный объект исчезает из захваченного видеоизображения, т.е. когда идентифицированный объект не захвачен, первое устройство 100 может модифицировать область, соответствующую второму видеоизображению. Например, когда идентифицированный объект исчезает из захваченного видеоизображения, первое устройство 100 может предоставлять все захваченное видеоизображение во второе устройство 200. Кроме того, в этом случае, первое устройство 100 может предоставлять все захваченное видеоизображение во второе устройство 200 на основе дополнительного пользовательского ввода.[136] In addition, when the identified object disappears from the captured video image, i.e. when the identified object is not captured, the
[137] Помимо этого, когда объект, который исчезает еще раз, повторно появляется в захваченном изображении, т.е. когда объект, который исчезает, захвачен снова, видеоизображение части, включающей в себя появляющийся объект, из общей области захваченного изображения может предоставляться во второе устройство 200.[137] In addition, when an object that disappears once more reappears in the captured image, i.e. when an object that disappears is captured again, a video image of a part including the appearing object from the common area of the captured image can be provided to the
[138] Когда первое устройство 100 принимает информацию области относительно части третьего видеоизображения, соответствующего экрану выполнения приложения, выполняемого в первом устройстве 100, первое устройство 100 может предоставлять четвертое видеоизображение, включающее в себя только часть, которая включает в себя идентифицированный объект, во второе устройство 200. В этом случае, первое устройство 100 может предоставлять четвертое видеоизображение с третьим разрешением во второе устройство 200.[138] When the
[139] Когда первое устройство 100 принимает информацию области относительно части третьего видеоизображения, соответствующего экрану выполнения приложения, выполняемого в первом устройстве 100, первое устройство 100 может не идентифицировать или отслеживать объект, включенный в третье видеоизображение. В этом случае, первое устройство 100 может вырезать часть третьего видеоизображения на основе принимаемой информации области и преобразовывать вырезанную часть в четвертое видеоизображение и предоставлять четвертое видеоизображение во второе устройство 200.[139] When the
[140] На этапе S370, второе устройство 200 отображает принимаемое второе видеоизображение. Пользователь второго устройства 200 может проверять подробное видеоизображение относительно объекта, включенного в выбранную часть. Кроме того, второе устройство 200 может отображать неподвижный экран принимаемого второго видеоизображения.[140] In step S370, the
[141] Между тем, второе устройство 200 может совместно отображать первое видеоизображение и второе видеоизображение на экране второго устройства 200. В этом случае, второе устройство 200 может принимать не только второе видеоизображение, но также и первое видеоизображение на этапе S360. Кроме того, второе устройство 200 может отображать первое и второе видеоизображения посредством перекрытия второго видеоизображения на первом видеоизображении. Второе устройство 200 может перекрывать второе видеоизображение в части первого видеоизображения, в которой не отображается пользователь первого устройства 100. Помимо этого, второе устройство 200 может регулировать размер части, в которой отображается первое видеоизображение, и размер части, в которой отображается второе видеоизображение. Тем не менее, примерные варианты осуществления не ограничены этим, и второе устройство 200 может отображать первое и второе видеоизображения на экране второго устройства 200 без перекрытия первого и второго видеоизображений.[141] Meanwhile, the
[142] Хотя выше описано второе устройство 200, принимающее второе видеоизображение из первого устройства 100 и отображающее как первое, так и второе видеоизображения, альтернативно, второе устройство 200, может выбирать часть первого видеоизображения, извлекать развернутое изображение выбранной части из первого видеоизображения и отображать извлеченное развернутое изображение на экране второго устройства 200 вместе с первым видеоизображением.[142] Although the
[143] Фиг. 4 является блок-схемой последовательности операций, иллюстрирующей способ формирования информации области относительно интересующей области, посредством использования второго устройства 200, согласно примерному варианту осуществления.[143] FIG. 4 is a flowchart illustrating a method of generating area information regarding a region of interest by using the
[144] На этапе S322, второе устройство 200 принимает пользовательский ввод для выбора части первого видеоизображения. Второе устройство 200 может принимать сенсорный ввод пользователя для выбора части первого видеоизображения. Например, второе устройство 200 может принимать пользовательский ввод для касания предварительно определенной точки первого видеоизображения или пользовательский ввод для касания и перетаскивания предварительно определенной точки первого видеоизображения.[144] In step S322, the
[145] Кроме того, второе устройство 200 может принимать сенсорный ввод пользователя через предварительно определенный пользовательский интерфейс, отображаемый на экране. Например, второе устройство 200 может отображать прямоугольник в части первого видеоизображения и предоставлять пользовательский интерфейс, так что пользователь может касаться и перетаскивать кадр с прямоугольником, чтобы модифицировать размер прямоугольника. Кроме того, второе устройство 200 может принимать сенсорный ввод пользователя через предоставленный пользовательский интерфейс.[145] In addition, the
[146] На этапе S324, второе устройство 200 проверяет способ связи относительно первого устройства 100. Второе устройство 200 может проверять тип и полосу пропускания способа связи относительно первого устройства 100. Кроме того, второе устройство 200 может проверять разрешение потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200. Примеры способа связи между первым устройством 100 и вторым устройством 200 включают в себя, без ограничения, 3G-связь, 4G-связь и Wi-Fi-связь.[146] In step S324, the
[147] На этапе S326, второе устройство 200 выбирает часть первого видеоизображения в качестве интересующей области на основе принимаемого пользовательского ввода и проверенного способа связи. Второе устройство 200 может выбирать часть первого видеоизображения на основе позиции точки сенсорного ввода в первом видеоизображении. Подробно, когда пользователь касается предварительно определенной точки в первом видеоизображении, второе устройство 200 идентифицирует объект, включающий в себя точку касания, и выбирает часть первого видеоизображения, включающую в себя идентифицированный объект. Например, когда касаются отображаемого изображения лица в первом видеоизображении, второе устройство 200 может идентифицировать лицо, которое представляет собой объект, включающий в себя точку касания. Кроме того, второе устройство 200 может выбирать часть, включающую в себя идентифицированное лицо, в качестве интересующей области.[147] In step S326, the
[148] Помимо этого, когда пользователь касается предварительно определенной точки в первом видеоизображении, второе устройство 200 может выбирать область предварительно заданного диапазона из точки касания, в качестве интересующей области. Например, второе устройство 200 может выбирать прямоугольную область, имеющую предварительно определенный размер относительно точки касания, в качестве интересующей области.[148] In addition, when the user touches a predetermined point in the first video image, the
[149] Второе устройство 200 может модифицировать выбранную интересующую область согласно сенсорному вводу пользователя через пользовательский интерфейс.[149] The
[150] Размер интересующей области, выбранной в первом видеоизображении, может определяться согласно способу связи между первым устройством 100 и вторым устройством 200. Например, размер интересующей области, выбранной в первом видеоизображении, может определяться на основе, по меньшей мере, одного из типа и полосы пропускания способа связи. Кроме того, в другом примере, размер интересующей области, выбранной в первом видеоизображении, может определяться на основе степени разрешения потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200. Верхний предел размера интересующей области, выбранной в первом видеоизображении, может определяться согласно способу связи между первым устройством 100 и вторым устройством 200.[150] The size of the region of interest selected in the first video image can be determined according to the communication method between the
[151] Хотя второе устройство 200 выбирает часть первого видеоизображения на основе пользовательского ввода согласно вышеприведенному описанию со ссылкой на фиг. 4, примерные варианты осуществления не ограничены этим. Второе устройство 200 может распознавать лицо, включенное в первое видеоизображение, без дополнительного пользовательского ввода и выбирать предварительно определенную область, включающую в себя лицо, в качестве интересующей области. Кроме того, в этом случае, размер выбранной интересующей области может определяться согласно способу связи между первым устройством 100 и вторым устройством 200.[151] Although the
[152] Фиг. 5 является блок-схемой последовательности операций, иллюстрирующей, когда модифицируется способ связи между первым устройством 100 и вторым устройством 200, способ модификации интересующей области, выбранной посредством использования первого устройства 100, и предоставления видеоизображения относительно модифицированной области во второе устройство 200, согласно примерному варианту осуществления.[152] FIG. 5 is a flowchart illustrating when a communication method between a
[153] На этапе S500, первое устройство 100 определяет то, модифицируется способ связи или нет между первым устройством 100 и вторым устройством 200. Подробно, первое устройство 100 может проверять то, модифицируются тип или полоса пропускания способа связи либо нет относительно второго устройства 200. Кроме того, второе устройство 200 может проверять то, модифицируется или нет разрешение потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200.[153] In step S500, the
[154] Примеры способа связи между первым устройством 100 и вторым устройством 200 включают в себя, без ограничения, 3G-связь, 4G-связь и Wi-Fi-связь. Помимо этого, способ связи между первым устройством 100 и вторым устройством 200 может быть модифицирован, когда, по меньшей мере, одно из первого устройства 100 и второго устройства 200 выполняет передачу обслуживания.[154] Examples of a communication method between the
[155] В качестве результата определения этапа S500, когда модифицируется способ связи, на этапе S510, первое устройство 100 модифицирует область, соответствующую второму видеоизображению, передаваемому во второе устройство 200. Когда модифицируется способ связи между первым устройством 100 и вторым устройством 200, первое устройство 100 может модифицировать размер части первого видеоизображения, соответствующей второму видеоизображению.[155] As a result of determining step S500, when the communication method is modified, in step S510, the
[156] Например, когда модифицируется способ связи между первым устройством 100 и вторым устройством 200 с 3G-связи на Wi-Fi-связь, может выбираться часть первого видеоизображения, которая должна передаваться из первого устройства, которая больше части первого видеоизображения, соответствующей второму видеоизображению. Когда способ связи между первым устройством 100 и вторым устройством 200 представляет собой 3G-связь, и первое устройство 100 передает часть лица первого видеоизображения, и затем способ связи между первым устройством 100 и вторым устройством 200 модифицируется на Wi-Fi-связь, первое устройство 100 может выбирать часть первого видеоизображения таким образом, что часть фона первого видеоизображения дополнительно включена в дополнение к лицу. Помимо этого, например, когда модифицируется способ связи между первым устройством 100 и вторым устройством 200 с 4G-связи на Wi-Fi-связь, может выбираться меньшая область, чем часть, соответствующая второму видеоизображению.[156] For example, when a communication method between the
[157] Кроме того, например, когда модифицируется разрешение потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200, может модифицироваться размер части, соответствующей второму видеоизображению.[157] Furthermore, for example, when the resolution of the streaming of data transmitted between the
[158] Размер области, соответствующей, по меньшей мере, одному из типа и полосы пропускания способа связи, может задаваться заранее и сохраняться в первом устройстве 100. Кроме того, размер области, соответствующей разрешению потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200, может задаваться заранее и сохраняться в первом устройстве 100.[158] The size of the region corresponding to at least one of the type and bandwidth of the communication method can be set in advance and stored in the
[159] На этапе S520, первое устройство 100 предоставляет видеоизображение модифицированной области во второе устройство 200. Например, когда модифицируется способ связи между первым устройством 100 и вторым устройством 200 с 3G-связи на Wi-Fi-связь, первое устройство 100 может предоставлять видеоизображение относительно части первого видеоизображения, большей части первого видеоизображения, соответствующей второму видеоизображению, во второе устройство 200. Кроме того, например, когда уменьшается разрешение потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200, первое устройство может предоставлять видеоизображение относительно меньшей части первого видеоизображения, чем часть первого видеоизображения, соответствующая второму видеоизображению, во второе устройство 200.[159] In step S520, the
[160] Фиг. 6 является блок-схемой последовательности операций, иллюстрирующей, когда модифицируется способ связи между первым устройством 100 и вторым устройством 200, способ предоставления видеоизображения, имеющего модифицированное качество изображений посредством использования первого устройства 100, во второе устройство 200, согласно примерному варианту осуществления.[160] FIG. 6 is a flowchart illustrating when a communication method between a
[161] На этапе S600, первое устройство 100 определяет то, модифицируется или нет способ связи относительно второго устройства 200. Подробно, первое устройство 100 может проверять то, модифицируется тип или полоса пропускания связи либо нет относительно второго устройства 200. Кроме того, второе устройство 200 может проверять то, модифицируется или нет разрешение потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200.[161] In step S600, the
[162] В качестве результата этапа S600, когда определяется то, что способ связи модифицируется, на этапе S610, первое устройство 100 модифицирует качество изображений для второго видеоизображения, которое передается во второе устройство 200. Когда модифицируется способ связи между первым устройством 100 и вторым устройством 200, первое устройство 100 может модифицировать качество изображений для второго видеоизображения на высокое качество изображений или низкое качество изображений.[162] As a result of step S600, when it is determined that the communication method is being modified, in step S610, the
[163] Например, когда модифицируется способ связи между первым устройством 100 и вторым устройством 200 с 3G-связи на Wi-Fi-связь, качество изображений для второго видеоизображения может быть модифицировано на более высокое качество изображений, чем в 3G-связи. Помимо этого, например, когда модифицируется способ связи между первым устройством 100 и вторым устройством 200 с 4G-связи на 3G-связь, качество изображений для второго видеоизображения может быть модифицировано на более низкое качество изображения, чем в 4G-связи.[163] For example, when a communication method between the
[164] В другом примере, качество изображений для второго видеоизображения может быть модифицировано, когда модифицируется разрешение потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200.[164] In another example, the image quality for the second video image may be modified when the resolution of the streaming of data transmitted between the
[165] Качество изображений, соответствующее, по меньшей мере, одному из типа и полосе пропускания способа связи, может задаваться заранее и сохраняться в первом устройстве 100. Кроме того, качество изображений, соответствующее разрешению потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200, может задаваться заранее и сохраняться в первом устройстве 100.[165] Image quality corresponding to at least one of the type and bandwidth of the communication method can be set in advance and stored in the
[166] На этапе S620, первое устройство 100 предоставляет видеоизображение с модифицированным качеством изображений во второе устройство 200. Первое устройство 100 может предоставлять видеоизображение, имеющее надлежащее качество изображений в качестве модифицированного качества изображений, во второе устройство 200.[166] In step S620, the
[167] Фиг. 7 является блок-схемой последовательности операций, иллюстрирующей способ предоставления видеоизображения, включающего в себя объект, соответствующий части видеоизображения, захватываемого посредством использования первого устройства 100, во второе устройство 200, согласно другому примерному варианту осуществления. Ссылаясь на фиг. 7, первое устройство 100 может принимать информацию координат предварительно определенной точки первого видеоизображения из второго устройства 200 и выбирать часть первого видеоизображения в качестве интересующей области посредством использования принимаемой информации координат.[167] FIG. 7 is a flowchart illustrating a method of providing a video image including an object corresponding to a portion of a video image captured by using the
[168] На этапе S700, первое устройство 100 предоставляет первое видеоизображение во второе устройство 200. Первое устройство 100 может предоставлять первое видеоизображение во второе устройство 200 на основе захваченного видеоизображения. Первое устройство 100 может предоставлять захваченное видеоизображение в качестве первого видеоизображения без его обработки во второе устройство 200. Кроме того, первое устройство 100 может обрабатывать захваченное видеоизображение и предоставлять обработанное видеоизображение в качестве первого видеоизображения во второе устройство 200. В этом случае, первое устройство 100 может модифицировать разрешение захваченного видеоизображения или преобразовывать захваченное видеоизображение в предварительно определенный формат. Например, если разрешение захваченного видеоизображения превышает разрешение потоковой передачи данных между первым устройством 100 и вторым устройством 200, первое устройство 100 может модифицировать разрешение захваченного видеоизображения таким образом, что оно является идентичным разрешению потоковой передачи данных, и может предоставлять захваченное видеоизображение с модифицированным разрешением, в качестве первого видеоизображения, во второе устройство 200.[168] In step S700, the
[169] На этапе S700, первое устройство 100 может передавать первое видеоизображение, имеющее исходное разрешение, во внешнее устройство с первым разрешением. Первое устройство 100 может преобразовывать первое видеоизображение, имеющее исходное разрешение, в первое видеоизображение с первым разрешением, и передавать первое видеоизображение, имеющее первое разрешение, во второе устройство 200. В этом случае, первое устройство 100 может получать информацию относительно разрешения дисплея, включенного во второе устройство 200, заранее и сохранять ее и может определять первое разрешение на основе разрешения дисплея, включенного во второе устройство 200.[169] In step S700, the
[170] На этапе S710, второе устройство 200 отображает принимаемое первое видеоизображение. Второе устройство 200 может отображать принимаемое первое видеоизображение на экране второго устройства 200. Например, второе устройство 200 может отображать первое видеоизображение с первым разрешением на экране.[170] In step S710, the
[171] На этапе S720, второе устройство 200 принимает сенсорный ввод пользователя относительно первого видеоизображения, отображаемого на экране. Второе устройство 200 может принимать сенсорный ввод пользователя, который выбирает предварительно определенную точку первого видеоизображения, отображаемого на экране. Кроме того, второе устройство 200 может формировать информацию координат точки касания.[171] In step S720, the
[172] На этапе S730, второе устройство 200 предоставляет информацию координат точки касания в первое устройство 100.[172] In step S730, the
[173] На этапе S740, первое устройство 100 определяет часть первого видеоизображения, которая должна предоставляться во второе устройство 200, в качестве интересующей области, на основе принимаемой информации координат. Первое устройство 100 может выбирать часть на основе позиции точки касания. Подробно, первое устройство 100 может идентифицировать объект, включающий в себя точку касания, и выбирать область, которая включает в себя идентифицированный объект. Например, когда касаются части лица в первом видеоизображении, первое устройство 100 может идентифицировать лицо, в качестве объекта, включающего в себя точку касания. Кроме того, первое устройство 100 может выбирать часть, включающую в себя идентифицированное лицо, в качестве интересующей области.[173] In step S740, the
[174] Кроме того, первое устройство 100 может выбирать область предварительно заданного диапазона вокруг точки касания в качестве интересующей области. Например, первое устройство 100 может выбирать прямоугольную область, имеющую предварительно определенный размер вокруг точки касания, в качестве интересующей области.[174] In addition, the
[175] На этапе S750, первое устройство 100 идентифицирует объект, включенный в определенную часть. Например, когда первое устройство 100 выбирает область предварительно заданного диапазона из точки касания в качестве интересующей области, первое устройство 100 может идентифицировать объект, включенный в выбранную часть, из первого видеоизображения.[175] In step S750, the
[176] Первое устройство 100 может идентифицировать объект из захваченного видеоизображения на основе определенной интересующей области. Определенная интересующая область представляет собой часть первого видеоизображения, и в силу этого первое устройство 100 может проверять область, совпадающую с интересующей областью первого видеоизображения, из видеоизображения, которое в данный момент захватывается. Кроме того, первое устройство 100 может идентифицировать объект, включенный в совпадающую область, из видеоизображения, которое в данный момент захватывается.[176] The
[177] Первое устройство 100 может идентифицировать объект, включенный в видеоизображение, которое захватывается, посредством использования объекта, идентифицированного из первого видеоизображения. Первое устройство 100 может идентифицировать объект, включенный в захватываемое видеоизображение, посредством использования идентифицированного объекта из первого видеоизображения. Первое устройство 100 может идентифицировать объект, который является аналогичным изображению объекта, идентифицированного из первого видеоизображения, на основе порогового значения согласования/идентификации.[177] The
[178] На этапе S760, первое устройство 100 отслеживает идентифицированный объект. Первое устройство 100 может отслеживать объект, идентифицированный из первого видеоизображения. Кроме того, первое устройство 100 может отслеживать объект, идентифицированный из захваченного видеоизображения.[178] In step S760, the
[179] На этапе S770, первое устройство 100 предоставляет второе видеоизображение, включающее в себя отслеживаемый объект, во второе устройство 200. Первое устройство 100 может вырезать часть, включающую в себя идентифицированный объект, из захваченного видеоизображения и предоставлять вырезанную часть в качестве второго видеоизображения во второе устройство 200.[179] In step S770, the
[180] Подробно, первое устройство 100 может определять часть экрана первого видеоизображения, имеющего исходное разрешение, соответствующее интересующей области, на основе принимаемой информации области. Кроме того, первое устройство 100 может преобразовывать первое видеоизображение во второе видеоизображение таким образом, что только определенная часть включена во второе видеоизображение. Кроме того, первое устройство 100 может предоставлять второе видеоизображение с первым разрешением во второе устройство 200. Первое видеоизображение с первым разрешением может быть преобразовано из первого видеоизображения с исходным разрешением. Например, когда исходное разрешение первого видеоизображения составляет 1000×1000, и первое разрешение второго видеоизображения составляет 100×100, первое устройство 100 может преобразовывать определенную часть первого видеоизображения во второе видеоизображение и передавать второе видеоизображение с разрешением 100×100 во второе устройство 200.[180] In detail, the
[181] Первое устройство 100 может определять размер части, соответствующей второму видеоизображению, согласно способу связи между первым устройством 100 и вторым устройством 200. Кроме того, первое устройство может определять качество изображений для второго видеоизображения согласно способу связи между первым устройством 100 и вторым устройством 200. Примеры способа связи между первым устройством 100 и вторым устройством 200 включают в себя, без ограничения, 3G-связь, 4G-связь и Wi-Fi-связь.[181] The
[182] Когда модифицируется способ связи между первым устройством 100 и вторым устройством 200, первое устройство 100 может модифицировать размер области, соответствующей второму видеоизображению, или качество изображений области, соответствующей второму видеоизображению. Способ связи между первым устройством 100 и вторым устройством 200 может быть модифицирован, когда, по меньшей мере, одно из первого устройства 100 и второго устройства 200 выполняет передачу обслуживания.[182] When the communication method between the
[183] На этапе S780, второе устройство 200 отображает принимаемое видеоизображение. Пользователь второго устройства 200 может проверять подробное видеоизображение объекта, включенного в выбранную часть.[183] In step S780, the
[184] Между тем, второе устройство 200 может совместно отображать первое видеоизображение и второе видеоизображение на экране второго устройства 200. В этом случае, на этапе S770, второе устройство 200 может принимать не только второе видеоизображение, но также и первое видеоизображение. Кроме того, второе устройство 200 может отображать первое и второе видеоизображения посредством перекрытия второго видеоизображения на первом видеоизображении. Второе устройство 200 может перекрывать второе видеоизображение в части первого видеоизображения, в которой не отображается пользователь первого устройства 100. Помимо этого, второе устройство 200 может регулировать размер части, в которой отображается первое видеоизображение, и размер части, в которой отображается второе видеоизображение. Тем не менее, примерные варианты осуществления не ограничены этим, и второе устройство 200 может отображать первое и второе видеоизображения на экране второго устройства 200 без перекрытия первого и второго видеоизображений.[184] Meanwhile, the
[185] Фиг. 8А и 8B иллюстрируют пример определения части первого видеоизображения в качестве интересующей области, посредством использования второго устройства 200, так что объект, включающий в себя точку, которой касается пользователь, включен в определенную часть, согласно примерному варианту осуществления.[185] FIG. 8A and 8B illustrate an example of determining a portion of a first video image as an area of interest by using a
[186] Ссылаясь на фиг. 8А и 8B, когда пользователь касается предварительно определенной точки 80 первого видеоизображения, отображаемого на экране второго устройства 200, второе устройство 200 может определять область 84, включающую в себя лицо 82, которое включает в себя точку 80 касания, в качестве части первого видеоизображения.[186] Referring to FIG. 8A and 8B, when the user touches a
[187] Подробно, когда пользователь касается предварительно определенной точки 80 первого видеоизображения, отображаемого на экране, второе устройство 200 может идентифицировать лицо 82, включающее в себя точку касания. Кроме того, второе устройство 200 может выбирать область 84, включающую в себя лицо 82. В этом случае, размер области 84 может определяться на основе способа связи между первым устройством 100 и вторым устройством 200.[187] In detail, when a user touches a
[188] Например, когда пользователь касается предварительно определенного меню, отображаемого на экране второго устройства 200, предварительно определенный прямоугольный блок отображается на экране второго устройства 200, и пользователь может перемещать отображаемый прямоугольный блок или регулировать размер прямоугольного блока, чтобы выбирать интересующую область. В этом случае, пользовательский интерфейс, через который перемещается прямоугольный блок или регулируется размер прямоугольного блока, также может отображаться на экране второго устройства 200.[188] For example, when a user touches a predefined menu displayed on the screen of the
[189] Фиг. 9А и 9B иллюстрируют пример определения, в качестве интересующей области, части в предварительно заданном диапазоне из точки касания пользователя, посредством использования второго устройства 200, согласно примерному варианту осуществления.[189] FIG. 9A and 9B illustrate an example of determining, as a region of interest, a part in a predetermined range from a user's touch point by using the
[190] Ссылаясь на фиг. 9А и 9B, когда пользователь касается предварительно определенной точки 90 первого видеоизображения, отображаемого на экране второго устройства 200, прямоугольная область 92, имеющая предварительно определенный размер вокруг точки 90 касания, может определяться в качестве части первого видеоизображения. В этом случае, размер области 92 может определяться на основе способа связи между первым устройством 100 и вторым устройством 200.[190] Referring to FIG. 9A and 9B, when the user touches a
[191] Альтернативно, второе устройство 200 может определять интересующую область на основе растягивающего ввода пользователя. Когда пользователь разворачивает предварительно определенную часть второго видеоизображения посредством растягивающего ввода с использованием, например, своего большого пальца и указательного пальца и удерживает касающийся большой палец и указательный палец в течение предварительно определенного периода времени или дольше, второе устройство 200 может определять часть, развернутую посредством растягивающего ввода, в качестве интересующей области. Кроме того, второе устройство 200 может отправлять запрос на предмет второго видеоизображения, соответствующего определенной интересующей области, в первое устройство 100.[191] Alternatively, the
[192] Фиг. 10А и 10B иллюстрируют пример определения части первого видеоизображения в качестве интересующей области посредством использования второго устройства 200 через пользовательский интерфейс для определения части первого видеоизображения, согласно примерному варианту осуществления.[192] FIG. 10A and 10B illustrate an example of determining a portion of a first video image as an area of interest by using a
[193] Ссылаясь на фиг. 10А и 10B, второе устройство 200 может отображать направляющую линию 10 для выбора части первого видеоизображения на экране. Кроме того, второе устройство 200 может модифицировать размер направляющей линии 10 на основе касания пользователем части направляющей линии 10 и ее перетаскивания. Кроме того, второе устройство 200 может определять часть, включенную в модифицированную направляющую линию 10, в качестве интересующей области первого видеоизображения. В этом случае, верхний предел размера части, включенной в направляющую линию 10, может определяться на основе способа связи между первым устройством 100 и вторым устройством 200.[193] Referring to FIG. 10A and 10B, the
[194] Фиг. 11A и 11B иллюстрируют, когда модифицируется способ связи между первым устройством 100 и вторым устройством 200, пример использования второго устройства 200, чтобы принимать, из первого устройства 100, видеоизображение с модифицированным разрешением, согласно примерному варианту осуществления. Фиг. 11А иллюстрирует видеоизображение, отображаемое на втором устройстве 200 до того, как модифицируется способ связи, и фиг. 11B иллюстрирует видеоизображение, отображаемое на втором устройстве 200 после того, как модифицируется способ связи.[194] FIG. 11A and 11B illustrate when a communication method between the
[195] Когда модифицируется способ связи, используемый между первым устройством 100 и вторым устройством 200, может уменьшаться разрешение потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200. В этом случае, второе устройство 200 может принимать видеоизображение, имеющее более низкое разрешение, чем разрешение видеоизображения, принимаемого до того, как модифицируется способ связи, из первого устройства 100. Кроме того, второе устройство 200 может отображать видеоизображение, принимаемое после того, как модифицируется способ связи, с меньшим размером, чем размер видеоизображения, принимаемого до того, как модифицируется способ связи.[195] When the communication method used between the
[196] Фиг. 12А и 12B иллюстрируют, когда модифицируется способ связи между первым устройством 100 и вторым устройством 200, пример использования второго устройства 200, чтобы принимать, из первого устройства 100, видеоизображение с модифицированным качеством изображений, согласно примерному варианту осуществления. Фиг. 12А иллюстрирует видеоизображение, отображаемое на втором устройстве 200 до того, как модифицируется способ связи, и фиг. 12B иллюстрирует видеоизображение, отображаемое на втором устройстве 200 после того, как модифицируется способ связи.[196] FIG. 12A and 12B illustrate when a communication method between the
[197] Когда модифицируется способ связи, используемый между первым устройством 100 и вторым устройством 200, может уменьшаться разрешение потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200. В этом случае, второе устройство 200 может принимать видеоизображение, имеющее более низкое качество изображения, чем качество видеоизображения, принимаемого до того, как модифицируется способ связи, из первого устройства 100. Кроме того, второе устройство 200 может отображать видеоизображение, принимаемое после того, как модифицируется способ связи, с размером, идентичным размеру видеоизображения, принимаемого до того, как модифицируется способ связи.[197] When the communication method used between the
[198] Фиг. 13А и 13B иллюстрируют, когда модифицируется способ связи между первым устройством 100 и вторым устройством 200, пример использования второго устройства 200, чтобы принимать, из первого устройства 100, видеоизображение с модифицированной частью, согласно примерному варианту осуществления. Фиг. 13А иллюстрирует видеоизображение, отображаемое на втором устройстве 200 до того, как модифицируется способ связи, и фиг. 13B иллюстрирует видеоизображение, отображаемое на втором устройстве 200 после того, как модифицируется способ связи.[198] FIG. 13A and 13B illustrate when a communication method between the
[199] Когда модифицируется способ связи, используемый между первым устройством 100 и вторым устройством 200, может увеличиваться разрешение потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200. В этом случае, второе устройство 200 может принимать из первого устройства 100 видеоизображение, имеющее более широкую область, чем видеоизображение, принимаемое из первого устройства 100 до того, как модифицируется способ связи.[199] When the communication method used between the
[200] Фиг. 14 является блок-схемой, иллюстрирующей первое устройство 100 согласно примерному варианту осуществления.[200] FIG. 14 is a block diagram illustrating a
[201] Как проиллюстрировано на фиг. 14, первое устройство 100 включает в себя блок 110 получения изображений (например, узел получения изображений и т.д.), блок 120 предоставления изображений (например, узел предоставления изображений и т.д.), блок 130 идентификации объектов (например, узел идентификации объектов и т.д.), блок 140 отслеживания объектов (например, узел отслеживания объектов), блок 150 проверки сети (например, узел проверки сети и т.д.), буфер 190 кадров, базу 160 данных (DB), приемо-передающий блок 170 (например, приемо-передающее устройство и т.д.) и блок 180 управления (например, контроллер, процессор и т.д.).[201] As illustrated in FIG. 14, the
[202] Блок 110 получения изображений получает изображение, которое должно предоставляться во второе устройство 200. Блок 110 получения изображений может получать видеоизображение, которое захвачено посредством использования фотографического устройства или датчика изображений, включенного в себя первое устройство 100, но не ограничен этим. Блок 110 получения изображений может получать контент, такой как изображение или захваченное изображение.[202] The
[203] Когда третье видеоизображение, соответствующее экрану выполнения приложения, выполняемого в первом устройстве 100, предоставляется во второе устройство 200, блок 110 получения изображений может получать третье видеоизображение, соответствующее экрану выполнения приложения из буфера 190 кадров. Тем не менее, примерные варианты осуществления не ограничены этим, и блок 110 получения изображений может извлекать изображение, соответствующее экрану выполнения приложения, из буфера 190 кадров, который описывается ниже, и формировать третье видеоизображение посредством обработки извлеченного изображения.[203] When the third video image corresponding to the execution screen of the application running in the
[204] Блок 120 предоставления изображений предоставляет полученное изображение во второе устройство 200. Блок 120 предоставления изображений может обрабатывать полученное изображение и предоставлять его во второе устройство 200, но не ограничен этим. Блок 120 предоставления изображений может предоставлять полученное изображение во второе устройство 200 без дополнительной обработки.[204] The
[205] Блок 120 предоставления изображений может предоставлять первое видеоизображение и второе видеоизображение во второе устройство 200 на основе видеоизображения, захваченного посредством использования первого устройства 100. Блок 120 предоставления изображений также может предоставлять необработанное захваченное видеоизображение во второе устройство 200 в качестве первого видеоизображения. Кроме того, блок 120 предоставления изображений может обрабатывать захваченное видеоизображение и предоставлять обработанное видеоизображение во второе устройство 200 в качестве первого видеоизображения. В этом случае, блок 120 предоставления изображений может модифицировать разрешение или качество изображений для захваченного видеоизображения или преобразовывать формат захваченного видеоизображения.[205] The
[206] Блок 120 предоставления изображений может передавать, с первым разрешением, первое видеоизображение, имеющее исходное разрешение, во второе устройство 200. Первое видеоизображение с первым разрешением может быть преобразовано из первого видеоизображения с исходным разрешением. В этом случае, первое устройство 100 может получать информацию относительно разрешения дисплея, включенного во второе устройство 200, заранее и сохранять ее и определять первое разрешение на основе разрешения дисплея, включенного во второе устройство 200.[206] The
[207] Блок 120 предоставления изображений может предоставлять, во второе устройство 200, второе видеоизображение, включающее в себя объект, отслеживаемый посредством использования блока 140 отслеживания объектов, который описывается ниже. Второе видеоизображение может содержать только часть, которая включает в себя отслеживаемый объект. Кроме того, когда модифицируется способ связи между первым устройством 100 и вторым устройством 200, блок 120 предоставления изображений может модифицировать разрешение или качество изображений для второго видеоизображения и предоставлять модифицированное видеоизображение во второе устройство 200. Кроме того, когда модифицируется способ связи между первым устройством 100 и вторым устройством 200, блок 120 предоставления изображений может модифицировать размер части, соответствующей второму видеоизображению, и предоставлять видеоизображение модифицированной части во второе устройство 200.[207] The
[208] Между тем, блок 120 предоставления изображений может предоставлять третье видеоизображение, соответствующее экрану выполнения приложения, выполняемого в первом устройстве 100, во второе устройство 200. Кроме того, когда второе устройство 200 выбирает часть третьего видеоизображения, принимаемого из первого устройства 100, и запрашивает видеоизображение выбранной части, первое устройство 100 может предоставлять четвертое видеоизображение, соответствующее выбранной части, во второе устройство 200. В этом случае, четвертое видеоизображение может быть изображением, полученным посредством вырезания выбранной части из третьего видеоизображения.[208] Meanwhile, the
[209] Блок 130 идентификации объектов идентифицирует объект из полученного изображения. Блок 130 идентификации объектов может принимать информацию области части первого видеоизображения из второго устройства 200 и идентифицировать объект из захваченного видеоизображения или первого видеоизображения.[209] The
[210] Блок 140 отслеживания объектов отслеживает объект из полученного изображения. Блок 140 отслеживания объектов может отслеживать идентифицированный объект из первого видеоизображения или захваченного видеоизображения.[210] An
[211] Блок 150 проверки сети проверяет способ связи между первым устройством 100 и вторым устройством 200. Блок 150 проверки сети может проверять тип или полосу пропускания способа связи между первым устройством 100 и вторым устройством 200. Кроме того, блок 150 проверки сети может проверять разрешение потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200.[211] The
[212] Буфер 190 кадров хранит изображение, соответствующее экрану выполнения приложения, выполняемого в первом устройстве 100.[212] A
[213] DB 160 хранит различные типы информации, необходимой, когда первое устройство 100 предоставляет изображение предварительно определенной части видеоизображения во второе устройство 200.[213]
[214] Приемо-передающий блок 170 передает или принимает, в/из второго устройства 200, различную информацию, необходимую для первого устройства 100, чтобы предоставлять изображение предварительно определенной части первого видеоизображения во второе устройство 200.[214] The
[215] Блок 180 управления управляет блоком 110 получения изображений, блоком 120 предоставления изображений, блоком 130 идентификации объектов, блоком 140 отслеживания объектов, блоком 150 проверки сети, буфером 190 кадров, DB 160 и приемо-передающим блоком 170 таким образом, что первое устройство 100 может предоставлять изображение предварительно определенной области видеоизображения во второе устройство 200.[215] The
[216] Фиг. 15 является блок-схемой, иллюстрирующей второе устройство 200 согласно примерному варианту осуществления.[216] FIG. 15 is a block diagram illustrating a
[217] Как проиллюстрировано на фиг. 15, второе устройство 200 включает в себя блок 210 приема изображений (например, приемное устройство изображений и т.д.), блок 220 пользовательского ввода (например, пользовательский ввод и т.д.), блок 230 проверки сети (например, узел проверки сети и т.д.), блок 240 формирования информации области (например, узел формирования информации области и т.д.), блок 250 предоставления информации области (например, узел предоставления информации и т.д.), блок 260 отображения (например, дисплей и т.д.), DB 270, приемо-передающий блок 280 и блок 290 управления.[217] As illustrated in FIG. 15, the
[218] Блок 210 приема изображений принимает изображение из первого устройства 100. Блок 210 приема изображений может принимать первое видеоизображение и второе видеоизображение из первого устройства 100. Кроме того, когда модифицируется способ связи, блок 210 приема изображений может принимать видеоизображение с модифицированным разрешением или с модифицированным качеством изображений, но примерные варианты осуществления не ограничены этим.[218] The
[219] Когда предоставляется третье видеоизображение, соответствующее экрану выполнения приложения, выполняемого в первом устройстве 100, блок 210 приема изображений может принимать третье видеоизображение из первого устройства 100.[219] When a third video image corresponding to the execution screen of an application running in the
[220] Блок 220 пользовательского ввода принимает пользовательский ввод для выбора части первого видеоизображения. Например, блок 220 пользовательского ввода может принимать пользовательский ввод для касания предварительно определенной точки первого видеоизображения или пользовательский ввод для касания и перетаскивания предварительно определенной точки первого видеоизображения. Кроме того, блок 220 пользовательского ввода может принимать сенсорный ввод пользователя через предварительно определенный пользовательский интерфейс, отображаемый на экране второго устройства 200. Между тем, когда предоставляется третье видеоизображение, соответствующее экрану выполнения приложения, выполняемого в первом устройстве 100, блок 200 пользовательского ввода принимает пользовательский ввод для выбора части третьего видеоизображения.[220] The
[221] Блок 230 проверки сети проверяет способ связи между первым устройством 100 и вторым устройством 200. Блок 230 проверки сети может проверять тип и полосу пропускания способа связи между первым устройством 100 и вторым устройством 200. Кроме того, блок 230 проверки сети может проверять разрешение потоковой передачи данных, передаваемых между первым устройством 100 и вторым устройством 200.[221] The
[222] Блок 240 формирования информации области выбирает часть первого видеоизображения на основе пользовательского ввода и проверенного способа связи. Блок 240 формирования области может формировать информацию области, связанную с объектом, включенным в первое видеоизображение. Блок 240 формирования информации области может выбирать часть первого видеоизображения на основе позиции точки сенсорного ввода в первом видеоизображении. Подробно, когда пользователь касается предварительно определенной точки в первом видеоизображении, блок 240 формирования информации области может идентифицировать объект, включающий в себя точку касания, и выбирать область, включающую в себя идентифицированный объект.[222] The area
[223] Кроме того, когда пользователь касается предварительно определенной точки в первом видеоизображении, блок 240 формирования информации области может выбирать область предварительно заданного диапазона вокруг точки касания в качестве части первого видеоизображения. Кроме того, блок 240 формирования информации области может модифицировать выбранную часть согласно сенсорному вводу пользователя через пользовательский интерфейс. Кроме того, размер выбранной части первого видеоизображения может определяться согласно способу связи между первым устройством 100 и вторым устройством 200.[223] In addition, when the user touches a predetermined point in the first video image, the area
[224] Блок 250 предоставления информации области предоставляет сформированную информацию области в первое устройство 100.[224] The area
[225] Блок 250 предоставления информации области может предоставлять значение координаты выбранной части в первое устройство 100. Кроме того, блок 250 предоставления информации области может предоставлять значение координаты точки сенсорного ввода, введенной пользователем, в первое устройство 100.[225] The area
[226] Блок 260 отображения отображает изображение, принимаемое из первого устройства 100, на экране. Блок 260 отображения может отображать видеоизображение, принимаемое из первого устройства 100, на экране.[226] The
[227] DB 270 хранит различные типы информации, так что второе устройство 200 может принимать видеоизображение части первого видеоизображения, принимаемого из первого устройства 100.[227]
[228] Приемо-передающий блок 280 передает или принимает различные типы информации в/из первого устройства 100, так что второе устройство 200 может принимать видеоизображение части первого видеоизображения, принимаемого из первого устройства 100.[228] The
[229] Блок 290 управления управляет блоком 210 приема изображений, блоком 220 пользовательского ввода, блоком 230 проверки сети, блоком 240 формирования информации области, блоком 250 предоставления информации области, блоком 260 отображения, DB 270, приемо-передающим блоком 280 и блоком 290 управления таким образом, что второе устройство 200 может принимать видеоизображение части первого видеоизображения, принимаемого из первого устройства 100.[229] The
[230] Фиг. 16 является блок-схемой, иллюстрирующей устройство согласно другому примерному варианту осуществления. Устройство, проиллюстрированное на фиг. 16, может представлять собой первое устройство 100 или второе устройство 200 согласно примерному варианту осуществления.[230] FIG. 16 is a block diagram illustrating an apparatus according to another exemplary embodiment. The device illustrated in FIG. 16 may be a
[231] Блок 1001 мобильной связи (например, узел мобильной связи и т.д.) выполняет установление вызова относительно базовой станции или передачу данных через сотовую сеть, к примеру, 3G или 4G. Блок 1002 вспомогательной связи выполняет функцию для ближней связи, такую как технология Bluetooth или связь в поле в ближней зоне (NFC). Широковещательный блок 1003 (например, широковещательное приемное устройство и т.д.) принимает сигнал цифровой широковещательной передачи мультимедиа (DMB).[231] The mobile communication unit 1001 (for example, a mobile communication node, etc.) performs a call setup with respect to a base station or data transmission over a cellular network, such as 3G or 4G. An
[232] Блок 1004 камеры включает в себя линзу и оптическое устройство, с тем чтобы захватывать изображение или видеоизображение.[232] The
[233] Блок 1005 датчиков может включать в себя, например, гравитационный датчик, который считывает движение устройства, датчик освещения, который считывает яркость света, бесконтактный датчик, который считывает близость пользователя, и датчик движения, который считывает движение пользователя.[233] The
[234] Приемный блок 1006 по стандарту глобальной системы позиционирования (GPS) принимает GPS-сигнал из искусственного спутника. Различные услуги могут предоставляться пользователю посредством использования GPS-сигнала.[234] A Global Positioning System (GPS)
[235] Блок 1010 ввода-вывода предоставляет интерфейс относительно внешнего устройства или пользователя и может включать в себя, например, кнопку 1011, микрофон 1012, динамик 1013, вибрационный электромотор 1014, разъем 1015 или клавишную панель 1016.[235] The input /
[236] Сенсорный экран 1018 принимает сенсорный ввод пользователя. Здесь, сенсорный ввод может вводиться посредством жеста перетаскивания или жеста быстрого прикосновения. Контроллер 1017 сенсорного экрана передает сенсорный ввод, который вводится через сенсорный экран 1018, в блок 1050 управления. Блок 1019 питания подключается к аккумулятору или внешнему источнику питания, чтобы подавать питание, требуемое для устройства.[236] The
[237] Блок 1050 управления отображает часть контента, отображаемого на устройстве, и модифицирует ее посредством выполнения программ, которые хранятся в запоминающем устройстве 1060. Блок управления может записывать и/или считывать данные из буфера 1020 кадров.[237] The
[238] Программы, сохраненные в запоминающем устройстве 1060, могут классифицироваться на множество модулей согласно функциям, например, на модуль 1061 мобильной связи, Wi-Fi-модуль 1062, Bluetooth-модуль 1063, DMB-модуль 1064, модуль 1065 камеры, модуль 1066 датчиков, GPS-модуль 1067, модуль 1068 воспроизведения видеоизображений, модуль 1069 воспроизведения аудио, модуль 1070 питания, модуль 1071 сенсорного экрана, модуль 1072 пользовательского интерфейса (UI) или модуль 1073 приложений. Функции соответствующих модулей могут выводиться интуитивно специалистами в данной области техники из названий модулей.[238] Programs stored in the
[239] В дальнейшем в этом документе, подробно описывается модуль 1073 приложений.[239] Hereinafter, an
[240] Во-первых, когда устройство, проиллюстрированное на фиг. 16, представляет собой первое устройство 100, модуль 1073 приложений может предоставлять первое видеоизображение на основе захваченного видеоизображения во второе устройство 200 посредством использования модулей, включенных в первое устройство 100, и принимать информацию области относительно части первого видеоизображения. Кроме того, модуль 1073 приложений может идентифицировать объект, соответствующий части, и отслеживать его посредством использования модулей, включенных в первое устройство 100, и предоставлять второе видеоизображение, включающее в себя отслеживаемый объект, во второе устройство 200. Кроме того, модуль 1073 приложений может проверять способ связи относительно второго устройства 200 посредством использования модулей, включенных в первое устройство 100, и когда модифицируется способ связи, модуль 1073 приложений может предоставлять видеоизображение с модифицированным разрешением или качеством изображений по сравнению со вторым видеоизображением во второе устройство 200.[240] First, when the device illustrated in FIG. 16 is a
[241] Кроме того, когда устройство по фиг. 16 представляет собой второе устройство 200, модуль 1073 приложений может принимать первое видеоизображение посредством использования модулей, включенных во второе устройство 200, и выбирать часть первого видеоизображения. В этом случае, размер выбранной части может определяться на основе способа связи между первым устройством 100 и вторым устройством 200. Кроме того, модуль 1073 приложений может формировать информацию области относительно выбранной части посредством использования модулей, включенных во второе устройство 200, и предоставлять ее в первое устройство 100. Кроме того, модуль 1073 приложений может отображать принимаемое второе видеоизображение из второго устройства 200 посредством использования модулей, включенных во второе устройство 200.[241] Furthermore, when the device of FIG. 16 is a
[242] Фиг. 17А-17C иллюстрируют пример разворачивания части первого видеоизображения, отображаемого на экране второго устройства 200, согласно примерному варианту осуществления.[242] FIG. 17A-17C illustrate an example of expanding a portion of a first video image displayed on a screen of a
[243] Как проиллюстрировано на фиг. 17А-17C, второе устройство 200 может развертывать часть первого видеоизображения на основе сенсорного ввода и ввода в виде перетаскивания пользователя. В этом случае, второе устройство 200 может определять степень разворачивания первого видеоизображения на основе исходного разрешения первого видеоизображения. Подробно, как проиллюстрировано на фиг. 17А, когда пользователь касается нескольких частей экрана первого видеоизображения и выполняет движение перетаскивания через них, часть первого видеоизображения может быть развернута, как проиллюстрировано на фиг. 17B. Кроме того, второе устройство 200 может определять степень разворачивания первого видеоизображения с учетом исходного разрешения первого видеоизображения и размера экрана второго устройства 200. Соответственно, как проиллюстрировано на фиг. 17C, даже когда пользователь непрерывно выполняет касание и перетаскивание, первое видеоизображение не может быть развернуто больше степени разворачивания, как проиллюстрировано на фиг. 17B.[243] As illustrated in FIG. 17A-17C, the
[244] Кроме того, второе устройство 200 может принимать информацию относительно исходного разрешения первого видеоизображения из первого устройства 100 заранее и сохранять ее, чтобы определять степень разворачивания первого видеоизображения, но примерные варианты осуществления не ограничены этим.[244] In addition, the
[245] Фиг. 18А-18C иллюстрируют пример разворачивания части видеоизображения, отображаемого на экране второго устройства 200, пошагово согласно примерному варианту осуществления.[245] FIG. 18A-18C illustrate an example of expanding a portion of the video image displayed on the screen of the
[246] Как проиллюстрировано на фиг. 18А, может выбираться часть видеоизображения, и выбранная часть может разворачиваться в первый раз, и после этого часть развернутой части видеоизображения может выбираться и разворачиваться во второй раз.[246] As illustrated in FIG. 18A, a portion of the video image may be selected, and the selected portion may be expanded for a first time, and thereafter, a portion of the expanded portion of the video image may be selected and expanded for a second time.
[247] Фиг. 19А-19C иллюстрируют пример отображения изображения для предварительного просмотра, включающего в себя развернутую часть первого видеоизображения, на втором устройстве 200, и отображения второго видеоизображения, предоставленного в первое устройство 100, на втором устройстве 200 согласно примерному варианту осуществления. Здесь, первое устройство 100 и второе устройство 200 могут осуществлять видеовызов друг с другом.[247] FIG. 19A-19C illustrate an example of displaying a preview image including an expanded portion of a first video image on a
[248] Как проиллюстрировано на фиг. 19А, пользователь может выбирать часть 10 первого видеоизображения, отображаемого на экране второго устройства 200, в качестве интересующей области. Второе устройство 200 может принимать первое видеоизображение, имеющее первое разрешение, из первого устройства 100 и отображать принимаемое первое видеоизображение на экране второго устройства 200.[248] As illustrated in FIG. 19A, a user may select a
[249] Затем, как проиллюстрировано на фиг. 19B, изображение для предварительного просмотра, показывающее разворачивание выбранной интересующей области, может отображаться на втором устройстве 200, и меню 12 для определения того, следует или нет разворачивать часть первого видеоизображения и предоставлять ее, может отображаться на первом устройстве 100. Кроме того, то, какая часть первого видеоизображения разворачивается во втором устройстве 200, может отображаться в предварительно определенной области 14 первого устройства 100.[249] Then, as illustrated in FIG. 19B, a preview image showing the expansion of the selected region of interest can be displayed on the
[250] Когда пользователь выбирает "Разрешить" в меню 12, первое устройство 100 может предоставлять второе видеоизображение выбранной интересующей области во второе устройство 200, как проиллюстрировано на фиг. 19C, и второе устройство 200 может отображать принимаемое второе видеоизображение. В этом случае, первое устройство 100 может предоставлять второе видеоизображение выбранной интересующей области, имеющей первое разрешение, во второе устройство 200.[250] When the user selects "Enable" in
[251] Между тем, при предоставлении второго видеоизображения во второе устройство 200, первое устройство 100 может вставлять информацию уведомления во второе видеоизображение, чтобы уведомлять второе устройство 200 относительно того, что второе видеоизображение является развернутым изображением выбранной интересующей области. Подробно, первое устройство 100 может передавать в потоковом режиме первое видеоизображение и второе видеоизображение во второе устройство 200 и вставлять информацию уведомления во второе видеоизображение, когда первое устройство 100 прекращает передачу первого видеоизображения, но передает второе видеоизображение. Например, когда первое устройство 100 прекращает передачу первого видеоизображения, чтобы передавать второе видеоизображение, первое устройство 100 может вставлять предварительно определенное значение параметра в предварительно определенный пакет на уровне потоковой передачи, чтобы уведомлять второе устройство 200 относительно того, что предоставляется второе видеоизображение. Кроме того, информация уведомления может вставляться в заголовок пакета по протоколу передачи в реальном времени (RTP), проиллюстрированный на фиг. 20. Фиг. 20 иллюстрирует пример заголовка RTP-пакета согласно примерному варианту осуществления.[251] Meanwhile, when providing the second video image to the
[252] Каждый кадр второго видеоизображения, предоставленного из первого устройства 100 во второе устройство 200, может включать в себя множество RTP-пакетов. Кроме того, первое устройство 100 может вставлять информацию уведомления в предварительно определенный пакет из множества RTP-пакетов, соответствующих каждому кадру второго видеоизображения. Например, первое устройство 100 может вставлять информацию уведомления в RTP-пакет, при этом скорость передачи битов из поля 90 RTP-маркера, включенного в заголовок множества RTP-пакетов, соответствующих каждому кадру второго видеоизображения, составляет 1.[252] Each frame of the second video image provided from the
[253] Кроме того, первое устройство 100 может вставлять информацию уведомления в предварительно определенный кадр из множества кадров второго видеоизображения. Например, первое устройство 100 может вставлять информацию уведомления в предварительно определенное число кадров, начинающихся с первого кадра второго видеоизображения. Тем не менее, примерные варианты осуществления не ограничены этим.[253] In addition, the
[254] Кроме того, первое устройство 100 может вставлять информацию уведомления в поле 92 расширения заголовка для заголовка RTP-пакета. Информация уведомления может иметь предварительно определенную скорость передачи битов. Кроме того, информация уведомления может включать в себя предварительно определенную информацию области. Информация области может быть информацией, которая указывает, какая часть первого видеоизображения вырезается посредством использования первого устройства 100 для того, чтобы формировать второе видеоизображение. Например, информация области может быть значением, указывающим позицию части из всего экрана исходного видеоизображения, соответствующей экрану, отображающему второе видеоизображение. Кроме того, информация области может иметь предварительно определенное значение координаты.[254] In addition, the
[255] Фиг. 21 является блок-схемой последовательности операций, иллюстрирующей способ формирования четвертого видеоизображения посредством использования первого устройства 100 согласно примерному варианту осуществления. Первое устройство 100 может предоставлять третье видеоизображение, соответствующее экрану выполнения приложения, выполняемого в первом устройстве 100, во второе устройство 200, и принимать информацию области относительно части третьего видеоизображения из второго устройства 200, чтобы формировать четвертое видеоизображение и предоставлять сформированное четвертое видеоизображение во второе устройство 200.[255] FIG. 21 is a flowchart illustrating a method of generating a fourth video image by using the
[256] На этапе S2100, первое устройство 100 получает третье видеоизображение из буфера кадров в первом устройстве 100. Буфер кадров может хранить третье видеоизображение, соответствующее экрану выполнения приложения, выполняемого в первом устройстве 100.[256] In step S2100, the
[257] На этапе S2200, первое устройство 100 может вырезать часть третьего видеоизображения на основе информации области, принимаемой из второго устройства 200. Кроме того, первое устройство 100 может кодировать часть вырезанной части третьего видеоизображения на этапе S2300 и пакетировать ее на этапе S2400.[257] In step S2200, the
[258] Фиг. 22 является блок-схемой последовательности операций, иллюстрирующей способ приема посредством второго устройства 200, которое осуществляет видеовызов с первым устройством 100, второго видеоизображения, которое является развернутой частью первого видеоизображения, согласно примерному варианту осуществления.[258] FIG. 22 is a flowchart illustrating a method of receiving, by the
[259] На этапе S2205, первое устройство 100 и второе устройство 200 соединяются для видеовызова.[259] In step S2205, the
[260] На этапе S2210, первое устройство 100 предоставляет первое видеоизображение во второе устройство 200. Первое устройство 100 может захватывать пользователя первого устройства 100 и формировать первое видеоизображение для видеовызова. Кроме того, первое устройство 100 может передавать сформированное первое видеоизображение во второе устройство 200.[260] In step S2210, the
[261] На этапе S2220, второе устройство 200 отображает первое видеоизображение, принимаемое из первого устройства 100, на экране второго устройства 200.[261] In step S2220, the
[262] На этапе S2230, второе устройство 200 выбирает часть первого видеоизображения, которая должна разворачиваться. Второе устройство 200 может выбирать, из первого видеоизображения, например, часть рта пользователя первого устройства 100 или обложку книги для книги, которую держит пользователь первого устройства 100. В этом случае, второе устройство 200 может выбирать часть на основе сенсорного ввода пользователя, но примерные варианты осуществления не ограничены этим. Часть, которая должна разворачиваться, может задаваться заранее во время видеовызова, и второе устройство 200 может выбирать предварительно заданную часть из изображения пользователя первого устройства 100.[262] In step S2230, the
[263] Например, второе устройство 200 может отслеживать часть рта пользователя из изображения лица пользователя первого устройства 100, чтобы выбирать часть рта пользователя в качестве части. Подробно, второе устройство 200 может обнаруживать информацию распознавания лиц из изображения пользователя первого устройства 100 и может отслеживать и выбирать часть рта лица пользователя первого устройства 100 на основе обнаруженной информации распознавания лиц. Примеры способов обнаружения информации распознавания лиц включают в себя способ на основе признаков, способ на основе внешнего вида и гибридный способ. В способе на основе признаков, геометрическая информация лица или компонентов признаков лица (например, глаз, носа, рта или подбородка) может использоваться для того, чтобы распознавать лицо на основе размера и форм этих компонентов, корреляции между компонентами либо информации на основе комбинации этих факторов. Способ на основе признаков может включать в себя, например, чисто геометрический способ, способ на основе архитектуры динамического связывания и способ на основе скрытых моделей Маркова. Кроме того, согласно способу на основе внешнего вида, лицо распознано посредством использования модели, обучаемой из набора обучающих изображений. Примеры способа на основе внешнего вида включают в себя способ использования собственного лица, сформированного посредством анализа основных компонентов, способа с использованием линейного дискриминантного анализа, способ с использованием нейронных сетей и способ использования метода опорных векторов. Помимо этого, гибридный способ использует как способ на основе признаков, так и способ на основе внешнего вида. Примеры гибридного способа включают в себя, способ на основе анализа линейных признаков, способ на основе нормализации формы и компонентно-ориентированный способ. Тем не менее, способ обнаружения информации распознавания лиц согласно текущему примерному варианту осуществления не ограничен тремя способами, описанными выше, и другие различные способы могут использоваться при обнаружении информации распознавания лиц.[263] For example, the
[264] На этапе S2240, второе устройство 200 передает информацию координат выбранной части в первое устройство 100.[264] In step S2240, the
[265] На этапе S2250, первое устройство 100 отображает часть первого видеоизображения, выбранного посредством второго устройства 200. Первое устройство 100 может отображать часть первого видеоизображения, выбранного посредством второго устройства 200, например, посредством пунктирной линии. Кроме того, первое устройство 100 может отображать только часть первого видеоизображения, выбранного посредством второго устройства 200, на экране первого устройства 100.[265] In step S2250, the
[266] На этапе S2260, первое устройство 100 определяет предоставлять второе видеоизображение относительно выбранной части во второе устройство 200. Первое устройство 100 может отображать пользовательский интерфейс и определять предоставлять второе видеоизображение относительно части, выбранной посредством второго устройства 200, во второе устройство 200 на основе пользовательского ввода, который вводится через пользовательский интерфейс.[266] In step S2260, the
[267] На этапе 2270, первое устройство 100 захватывает часть, соответствующую выбранной части. Первое устройство 100 может захватывать, например, часть рта пользователя первого устройства 100 или обложку книги для книги, которую держит пользователь первого устройства 100.[267] At step 2270, the
[268] На этапе S2280, первое устройство 100 предоставляет второе видеоизображение во второе устройство 200. Первое устройство 100 может формировать второе видеоизображение посредством захвата части, соответствующей выбранной части, и предоставлять сформированное второе видеоизображение во второе устройство 200.[268] In step S2280, the
[269] На этапе S2290, второе устройство 200 отображает второе видеоизображение.[269] In step S2290, the
[270] Между тем, второе устройство 200 может отображать как первое видеоизображение, так и второе видеоизображение на экране второго устройства 200. В этом случае, на этапе S2280, второе устройство 200 может принимать не только второе видеоизображение, но также и первое видеоизображение. Помимо этого, второе устройство 200 может отображать первое и второе видеоизображения посредством перекрытия второго видеоизображения на первом видеоизображении. Второе устройство 200 может перекрывать второе видеоизображение в части первого видеоизображения, в которой не отображается пользователь первого устройства 100. Помимо этого, второе устройство 200 может регулировать размер части, в которой отображается первое видеоизображение, и размер части, в которой отображается второе видеоизображение. Тем не менее, примерные варианты осуществления не ограничены этим, и второе устройство 200 может отображать первое и второе видеоизображения на экране второго устройства 200 без перекрытия первого и второго видеоизображений.[270] Meanwhile, the
[271] Фиг. 23 является блок-схемой последовательности операций, иллюстрирующей способ разворачивания части первого видеоизображения и ее отображения посредством второго устройства 200, которое осуществляет видеовызов с первым устройством 100, согласно примерному варианту осуществления.[271] FIG. 23 is a flowchart illustrating a method of expanding a portion of the first video image and displaying it by the
[272] На этапе S2305, первое устройство 100 и второе устройство 200 соединяются для видеовызова.[272] In step S2305, the
[273] На этапе S2310, первое устройство 100 предоставляет первое видеоизображение во второе устройство 200. Первое устройство 100 может захватывать пользователя первого устройства 100 и может формировать первое видеоизображение для видеовызова. Кроме того, первое устройство 100 может передавать сформированное первое видеоизображение во второе устройство 200.[273] In step S2310, the
[274] На этапе S2320, второе устройство 200 отображает первое видеоизображение, принимаемое из первого устройства 100, на экране второго устройства 200.[274] In step S2320, the
[275] На этапе S2330, второе устройство 200 выбирает часть первого видеоизображения, которая должна разворачиваться. Второе устройство 200 может выбирать, из первого видеоизображения, часть рта пользователя первого устройства 100 или обложку книги для книги, которую держит пользователь первого устройства 100.[275] In step S2330, the
[276] В этом случае, второе устройство 200 может выбирать часть на основе сенсорного ввода пользователя, но примерные варианты осуществления не ограничены этим. Часть, которая должна разворачиваться, может задаваться заранее во время вызова изображения, и второе устройство 200 может выбирать предварительно заданную часть из изображения пользователя первого устройства 100. Например, второе устройство 200 может выбирать часть рта пользователя в качестве части посредством отслеживания части рта пользователя изображения лица пользователя первого устройства 100.[276] In this case, the
[277] На этапе S2340, второе устройство 200 отображает только часть первого видеоизображения, которая выбрана на этапе S2330, на экране второго устройства 200. Второе устройство 200 может развертывать выбранную часть первого видеоизображения посредством обработки изображений и может отображать развернутую часть на экране второго устройства 200. Например, когда разрешение первого видеоизображения составляет 200×200, и разрешение выбранной части составляет 50×50, первое устройство 100 может повышать разрешение выбранной части до 200×200.[277] In step S2340, the
[278] Между тем, второе устройство 200 может перекрывать развернутое изображение на первом видеоизображении. Второе устройство 200 может перекрывать развернутое изображение в части первого видеоизображения, в которой не отображается пользователь первого устройства 100. Помимо этого, второе устройство 200 может регулировать размер части, в которой отображается первое видеоизображение, и размер части, в которой отображается второе видеоизображение. Тем не менее, примерные варианты осуществления не ограничены этим, и второе устройство 200 может отображать первое и второе видеоизображения на экране второго устройства 200 без перекрытия первого и второго видеоизображений.[278] Meanwhile, the
[279] Фиг. 24А-24C иллюстрирует развернутую часть первого видеоизображения 42, отображаемого на экране второго устройства 200 вместе с первым видеоизображением, согласно примерному варианту осуществления.[279] FIG. 24A-24C illustrates an expanded portion of a
[280] Ссылаясь на фиг. 24А, могут быть выбраны часть 40 рта лица пользователя первого устройства 100, отображаемого на экране второго устройства 200. Часть 40 рта может выбираться пользователем второго устройства 200. Тем не менее, примерные варианты осуществления не ограничены этим, и второе устройство 200 может отслеживать и выбирать часть 40 рта в первом видеоизображении 42 согласно предварительно заданным стандартам.[280] Referring to FIG. 24A, the
[281] Ссылаясь на фиг. 24B, развернутое изображение 44 выбранной части 40 рта может перекрываться на первом видеоизображении 42. В этом случае, второе устройство 200 может определять часть первого видеоизображения 42, в которой не отображается пользователь первого устройства 100, и перекрывать второе видеоизображение в части, в которой не отображается пользователь.[281] Referring to FIG. 24B, the expanded
[282] Помимо этого, ссылаясь на фиг. 24C, развернутое изображение 44 выбранной части 40 рта может не перекрываться в первом видеоизображении 42, но развернутое изображение 44 выбранной части 40 рта и первое видеоизображение 42 могут быть, соответственно, отображены в отдельных окнах.[282] In addition, referring to FIG. 24C, the expanded
[283] Примерный вариант осуществления также может быть реализован в форме носителя информации, включающего в себя команды, выполняемые посредством компьютера, к примеру, программного модуля, выполняемого посредством компьютера. Машиночитаемый носитель информации может представлять собой произвольный имеющийся носитель, к которому может получить доступ компьютер, и может представлять собой любой из энергозависимых, энергонезависимых, съемных и стационарных носителей. Кроме того, примеры машиночитаемого носителя записи могут включать в себя компьютерный носитель хранения данных и среду связи. Примеры компьютерного носителя хранения данных включают в себя энергозависимые, энергонезависимые, съемные и стационарные носители, реализованные посредством произвольного способа или технологии для хранения информации относительно машиночитаемой команды, структуры данных, программного модуля или других данных. Среда связи может включать в себя машиночитаемую команду, структуру данных, программный модуль, другие данные модулированного сигнала данных, к примеру, несущие частоты или другие механизмы передачи, и может представлять собой произвольную среду передачи информации.[283] An exemplary embodiment may also be implemented in the form of an information medium including instructions executed by a computer, for example, a software module executed by a computer. A computer-readable storage medium may be any available medium that can be accessed by a computer, and may be any of a volatile, non-volatile, removable and fixed medium. In addition, examples of computer-readable recording media may include computer storage medium and communication medium. Examples of computer storage media include volatile, non-volatile, removable and fixed media implemented by an arbitrary method or technology for storing information regarding a machine-readable instruction, data structure, program module or other data. The communication medium may include a machine-readable command, data structure, program module, other data of the modulated data signal, for example, carrier frequencies or other transmission mechanisms, and may be an arbitrary information transmission medium.
[284] Хотя примерные варианты осуществления конкретно показаны и описаны со ссылкой на варианты осуществления, специалисты в данной области техники должны понимать, что различные изменения в форме и подробностях могут вноситься в них без отступления от сущности и объема идеи изобретения, заданного посредством прилагаемой формулы изобретения. Примерные варианты осуществления должны рассматриваться только в описательном смысле, а не в целях ограничения. Например, каждый элемент, описанный в качестве одного типа, может быть распределен, и аналогично, элементы, описанные как распределенные, могут быть комбинированы.[284] Although exemplary embodiments are specifically shown and described with reference to embodiments, those skilled in the art should understand that various changes in form and detail can be made to them without departing from the spirit and scope of the inventive concept defined by the appended claims. . Exemplary embodiments should be considered only in a descriptive sense, and not for purposes of limitation. For example, each element described as one type can be distributed, and similarly, elements described as distributed can be combined.
[285] Объем примерных вариантов осуществления задается не посредством подробного описания, а посредством прилагаемой формулы изобретения, и все отличия в пределах объема должны истолковываться как включенные в идею изобретения.[285] The scope of exemplary embodiments is not specified by way of a detailed description, but by the appended claims, and all differences within the scope should be construed as being included in the concept of the invention.
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| KR20120077919 | 2012-07-17 | ||
| KR10-2012-0077919 | 2012-07-17 | ||
| KR1020130081194AKR102091137B1 (en) | 2012-07-17 | 2013-07-10 | System and method for rpoviding image | 
| KR10-2013-0081194 | 2013-07-10 | ||
| PCT/KR2013/006257WO2014014238A1 (en) | 2012-07-17 | 2013-07-12 | System and method for providing image | 
| Publication Number | Publication Date | 
|---|---|
| RU2015105185A RU2015105185A (en) | 2016-09-10 | 
| RU2653305C2true RU2653305C2 (en) | 2018-05-07 | 
| Application Number | Title | Priority Date | Filing Date | 
|---|---|---|---|
| RU2015105185ARU2653305C2 (en) | 2012-07-17 | 2013-07-12 | System and method of providing image | 
| Country | Link | 
|---|---|
| JP (1) | JP6271892B2 (en) | 
| KR (1) | KR102091137B1 (en) | 
| BR (1) | BR112015001112A2 (en) | 
| RU (1) | RU2653305C2 (en) | 
| TW (1) | TWI584641B (en) | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| RU2696009C1 (en)* | 2018-10-22 | 2019-07-30 | Акционерное общество "Калужский научно-исследовательский институт телемеханических устройств" | Method of movable object positioning based on video images | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| US9858470B2 (en) | 2014-07-18 | 2018-01-02 | Htc Corporation | Method for performing a face tracking function and an electric device having the same | 
| KR102121532B1 (en)* | 2014-08-26 | 2020-06-10 | 삼성전자주식회사 | Apparatus and method for providing preview image | 
| US20160094849A1 (en)* | 2014-09-27 | 2016-03-31 | Intel Corporation | THERMAL THROTTLING OF WiDi VIDEO STREAM RESOLUTION | 
| JP2017028587A (en) | 2015-07-24 | 2017-02-02 | ソニー株式会社 | Information processing apparatus and information processing method | 
| CN108353210B (en) | 2016-06-08 | 2021-01-29 | 华为技术有限公司 | Processing method and terminal | 
| KR102623181B1 (en)* | 2016-10-05 | 2024-01-11 | 엘지전자 주식회사 | Wireless device and wireless system | 
| JP2021500764A (en) | 2017-08-29 | 2021-01-07 | Line株式会社 | Improving video quality for video calls | 
| US20210311687A1 (en)* | 2018-08-31 | 2021-10-07 | Vestel Elektronik Sanayi Ve Ticaret A.S. | Electronic devices and methods of operating | 
| KR102222871B1 (en)* | 2019-02-22 | 2021-03-04 | 삼성전자주식회사 | Display apparatus and Method of displaying image thereof | 
| KR102067191B1 (en)* | 2019-06-28 | 2020-02-11 | 배경 | Apparatus for generating detailed image | 
| CN115174824B (en)* | 2021-03-19 | 2025-06-03 | 阿里巴巴创新公司 | Video generation method and device, promotional video generation method and device | 
| KR20220149803A (en)* | 2021-04-23 | 2022-11-08 | 삼성전자주식회사 | Electronic device and method for sharing information | 
| KR102833619B1 (en)* | 2021-06-07 | 2025-07-14 | 삼성전자주식회사 | Display apparatus and control method thereof | 
| EP4250282A4 (en) | 2021-06-07 | 2024-11-06 | Samsung Electronics Co., Ltd. | DISPLAY DEVICE AND CONTROL METHOD THEREFOR | 
| KR102571349B1 (en)* | 2021-12-16 | 2023-08-29 | 주식회사 랩241 | System and method for magnifing selection area of video | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| US6178204B1 (en)* | 1998-03-30 | 2001-01-23 | Intel Corporation | Adaptive control of video encoder's bit allocation based on user-selected region-of-interest indication feedback from video decoder | 
| US20060114987A1 (en)* | 1998-12-21 | 2006-06-01 | Roman Kendyl A | Handheld video transmission and display | 
| US20060215753A1 (en)* | 2005-03-09 | 2006-09-28 | Yen-Chi Lee | Region-of-interest processing for video telephony | 
| US20070229680A1 (en)* | 2006-03-30 | 2007-10-04 | Jai Pulnix, Inc. | Resolution proportional digital zoom | 
| RU2317587C1 (en)* | 2003-12-19 | 2008-02-20 | Телефонактиеболагет Лм Эрикссон (Пабл) | Method for processing images | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP2002369164A (en)* | 2001-06-06 | 2002-12-20 | Nikon Corp | Electronic imaging device and electronic imaging system | 
| JP3115546U (en)* | 2005-08-05 | 2005-11-10 | 東芝テリー株式会社 | Display device | 
| TWI275308B (en)* | 2005-08-15 | 2007-03-01 | Compal Electronics Inc | Method and apparatus for adjusting output images | 
| GB2447245B (en)* | 2007-03-05 | 2011-12-28 | Snell & Wilcox Ltd | Video transmission | 
| US8432492B2 (en)* | 2008-03-20 | 2013-04-30 | Institut Fuer Rundfunktechnik Gmbh | Method of adapting video images to small screen sizes | 
| JP2009239480A (en)* | 2008-03-26 | 2009-10-15 | Toshiba Corp | Video reception client, video distribution server, reception algorithm switching control method and program | 
| CN102197398A (en)* | 2008-06-25 | 2011-09-21 | 斯坦卡特·恩佐 | multifunctional communication device | 
| JP2010027000A (en)* | 2008-07-24 | 2010-02-04 | Sony Corp | Image detection device and image detection method | 
| JP5294967B2 (en)* | 2009-04-30 | 2013-09-18 | キヤノン株式会社 | Image processing apparatus and image processing method | 
| JP5089658B2 (en)* | 2009-07-16 | 2012-12-05 | 株式会社Gnzo | Transmitting apparatus and transmitting method | 
| US9185335B2 (en)* | 2009-12-28 | 2015-11-10 | Thomson Licensing | Method and device for reception of video contents and services broadcast with prior transmission of data | 
| KR101991135B1 (en)* | 2010-05-19 | 2019-06-19 | 지멘스 에스에이에스 | Securing remote video transmission for the remote control of a vehicle | 
| TW201225654A (en)* | 2010-12-13 | 2012-06-16 | Sonix Technology Co Ltd | Image accessing apparatus and image data transmission method thereof | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| US6178204B1 (en)* | 1998-03-30 | 2001-01-23 | Intel Corporation | Adaptive control of video encoder's bit allocation based on user-selected region-of-interest indication feedback from video decoder | 
| US20060114987A1 (en)* | 1998-12-21 | 2006-06-01 | Roman Kendyl A | Handheld video transmission and display | 
| RU2317587C1 (en)* | 2003-12-19 | 2008-02-20 | Телефонактиеболагет Лм Эрикссон (Пабл) | Method for processing images | 
| US20060215753A1 (en)* | 2005-03-09 | 2006-09-28 | Yen-Chi Lee | Region-of-interest processing for video telephony | 
| US20070229680A1 (en)* | 2006-03-30 | 2007-10-04 | Jai Pulnix, Inc. | Resolution proportional digital zoom | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| RU2696009C1 (en)* | 2018-10-22 | 2019-07-30 | Акционерное общество "Калужский научно-исследовательский институт телемеханических устройств" | Method of movable object positioning based on video images | 
| Publication number | Publication date | 
|---|---|
| JP6271892B2 (en) | 2018-01-31 | 
| BR112015001112A2 (en) | 2017-06-27 | 
| KR20140011264A (en) | 2014-01-28 | 
| TWI584641B (en) | 2017-05-21 | 
| RU2015105185A (en) | 2016-09-10 | 
| KR102091137B1 (en) | 2020-03-20 | 
| JP2014023158A (en) | 2014-02-03 | 
| TW201410004A (en) | 2014-03-01 | 
| Publication | Publication Date | Title | 
|---|---|---|
| RU2653305C2 (en) | System and method of providing image | |
| US10075673B2 (en) | System and method for providing image | |
| KR101598710B1 (en) | Mobile terminal and method for controlling the same | |
| KR20190008610A (en) | Mobile terminal and Control Method for the Same | |
| KR20190013308A (en) | Mobile terminal and method for controlling the same | |
| KR20140089149A (en) | Method for obtaining video data and an electronic device thereof | |
| KR20170025177A (en) | Mobile terminal and method for controlling the same | |
| KR20170029329A (en) | Mobile terminal and method for controlling the same | |
| KR20170029837A (en) | Mobile terminal and method for controlling the same | |
| KR20180133743A (en) | Mobile terminal and method for controlling the same | |
| KR20160127606A (en) | Mobile terminal and the control method thereof | |
| KR20170010485A (en) | Terminal device and controlling method thereof | |
| KR20150131815A (en) | Mobile terminal and controlling method thereof | |
| US20130300934A1 (en) | Display apparatus, server, and controlling method thereof | |
| KR20170094745A (en) | Method for video encoding and electronic device supporting the same | |
| KR20150110319A (en) | Method and device for displaying image | |
| KR20170099088A (en) | Electronic device and method for controlling the same | |
| KR20170059760A (en) | Mobile terminal and method for controlling the same | |
| KR101659022B1 (en) | Content control apparatus and method thereof | |
| CN117499750A (en) | Comment issuing method, comment issuing device, terminal and storage medium | |
| KR20170022227A (en) | Mobile terminal and method for controlling the same | |
| KR20140147057A (en) | Wearable glass-type device and method of controlling the device | |
| KR20180031238A (en) | Mobile terminal and method for controlling the same | |
| KR20170087247A (en) | Mobile terminal | |
| KR20170035755A (en) | Mobile terminal and method for controlling the same | 
| Date | Code | Title | Description | 
|---|---|---|---|
| MM4A | The patent is invalid due to non-payment of fees | Effective date:20200713 |