Movatterモバイル変換


[0]ホーム

URL:


KR20250090122A - Electronic device, method and recording medium for providing shared contents between electronic devices - Google Patents

Electronic device, method and recording medium for providing shared contents between electronic devices
Download PDF

Info

Publication number
KR20250090122A
KR20250090122AKR1020240008750AKR20240008750AKR20250090122AKR 20250090122 AKR20250090122 AKR 20250090122AKR 1020240008750 AKR1020240008750 AKR 1020240008750AKR 20240008750 AKR20240008750 AKR 20240008750AKR 20250090122 AKR20250090122 AKR 20250090122A
Authority
KR
South Korea
Prior art keywords
electronic device
content
area
display
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
KR1020240008750A
Other languages
Korean (ko)
Inventor
김지원
여재영
신은혜
이진원
이현준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사filedCritical삼성전자주식회사
Publication of KR20250090122ApublicationCriticalpatent/KR20250090122A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Classifications

Landscapes

Abstract

Translated fromKorean

본 개시의 다양한 실시예들은 전자 장치들 간에 시각적 정보(예: 컨텐츠 또는 컨텐츠 뷰)를 공유하고, 시각적 정보를 전자 장치들 간의 상대적 위치에 기반하여 제공하는 방법 및 이를 지원하는 전자 장치를 제공한다. 일 실시예에 따른 전자 장치는, 디스플레이, 통신 회로, 메모리 및 프로세서를 포함할 수 있다. 상기 전자 장치는, 컨텐츠를 표시할 수 있다. 상기 전자 장치는, 상기 컨텐츠를 표시하는 동안, 상기 컨텐츠를 공유하기 위한 대상 전자 장치와 연결할 수 있다. 상기 전자 장치는, 상기 전자 장치(101)의 제1 표시 영역과 상기 대상 전자 장치의 제2 표시 영역이 중첩되는 영역에 기반하여 공유 영역을 결정할 수 있다. 상기 전자 장치는, 상기 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성할 수 있다. 상기 전자 장치는, 상기 공유 영역에 기반하여 상기 컨텐츠를 이동 배치하여 표시할 수 있다. 상기 전자 장치는, 상기 컨텐츠 및 상기 공유 정보를 상기 대상 전자 장치로 전송하여, 상기 대상 전자 장치가 상기 컨텐츠를 공유 영역에 기반하여 표시하도록 제어할 수 있다. 다양한 실시예들이 가능하다.Various embodiments of the present disclosure provide a method for sharing visual information (e.g., content or content view) between electronic devices and providing visual information based on relative positions between electronic devices, and an electronic device supporting the same. An electronic device according to one embodiment may include a display, a communication circuit, a memory, and a processor. The electronic device may display content. While displaying the content, the electronic device may connect to a target electronic device for sharing the content. The electronic device may determine a sharing area based on an area where a first display area of the electronic device (101) and a second display area of the target electronic device overlap. The electronic device may generate sharing information related to sharing of the content based on the sharing area. The electronic device may move and display the content based on the sharing area. The electronic device may transmit the content and the sharing information to the target electronic device, and control the target electronic device to display the content based on the sharing area. Various embodiments are possible.

Description

Translated fromKorean
전자 장치들 간의 공유 컨텐츠를 제공하는 전자 장치, 그 동작 방법과, 기록 매체{ELECTRONIC DEVICE, METHOD AND RECORDING MEDIUM FOR PROVIDING SHARED CONTENTS BETWEEN ELECTRONIC DEVICES}ELECTRONIC DEVICE, METHOD AND RECORDING MEDIUM FOR PROVIDING SHARED CONTENTS BETWEEN ELECTRONIC DEVICES

본 개시의 실시예는 전자 장치들 간에 컨텐츠를 공유하여 표시하는 전자 장치, 그 동작 방법과 기록 매체를 제공한다.Embodiments of the present disclosure provide an electronic device for displaying content by sharing it between electronic devices, a method of operating the same, and a recording medium.

최근 가상 현실(VR, virtual reality), 증강 현실(AR, augmented reality) 및/또는 혼합 현실(MR, mixed reality)과 같은 확장 현실(XR, expended reality) 기술에 대한 연구 및 개발이 진행되고 있다. 최근에는 VR, AR 및/또는 MR 기술을 다양한 분야(예: 엔터테인먼트(entertainment), 인포테인먼트(infotainment), 스마트 홈(smart home) 및/또는 스마트 팩토리(smart factory) 분야)에서 다양하게 활용하고 있으며, 이를 위한 전자 장치의 하드웨어적인 부분 및/또는 소프트웨어적인 부분이 지속적으로 연구 및 개발되고 있다.Recently, research and development are being conducted on expanded reality (XR) technologies such as virtual reality (VR), augmented reality (AR), and/or mixed reality (MR). Recently, VR, AR, and/or MR technologies have been utilized in various fields (e.g., entertainment, infotainment, smart home, and/or smart factory), and hardware and/or software parts of electronic devices for this purpose are continuously being researched and developed.

예를 들면, 웨어러블 전자 장치는 단독(예: 스탠드얼론(standalone) 방식) 또는 적어도 둘 이상의 장치들 간에 서로 연동(예: 테더드(tethered) 방식)하여, AR 서비스에 관련된 어플리케이션을 통해 현실 세계 위에 다양한 디지털 컨텐츠(digital contents)(예: 가상 이미지)를 겹쳐서(또는 오버레이(overlay)하여) 웨어러블 전자 장치의 디스플레이를 통해 하나의 영상으로 제공할 수 있다. 예를 들면, 최근에는 전자 장치(예: 스마트 폰)와 웨어러블 전자 장치를 연결하고, 전자 장치에 의해 생성되는 가상 컨텐츠를 웨어러블 전자 장치의 디스플레이를 통해 제공하는 테더드 AR 방식 및 전자 장치와 연결 없이 웨어러블 전자 장치가 단독으로 가상 컨텐츠를 생성하여 디스플레이를 통해 제공하는 스탠드얼론 AR 방식과 같은 AR 환경을 구현하고 있다.For example, a wearable electronic device can operate independently (e.g., in a standalone manner) or in conjunction with at least two or more devices (e.g., in a tethered manner), and can provide a single image through the display of the wearable electronic device by overlaying various digital contents (e.g., virtual images) on the real world through an application related to the AR service. For example, recently, AR environments such as the tethered AR method, in which an electronic device (e.g., a smartphone) and a wearable electronic device are connected and virtual contents generated by the electronic device are provided through the display of the wearable electronic device, and the standalone AR method, in which the wearable electronic device generates virtual contents on its own without being connected to the electronic device and provides them through the display, have been implemented.

이와 같이, 최근의 AR 서비스의 기술 발전으로, AR 서비스를 이용하는 사용자가 증가하고 있으며, 그에 따른 사용자 니즈(needs)도 증가하고 있다. 예를 들면, AR 서비스를 이용하는 사용자는, AR 환경의 컨텐츠를 보다 정확하고 직관적으로 편리하게 선택 및 표시하고자 하는 요구가 증가하고 있다.In this way, with the recent technological advancement of AR services, the number of users using AR services is increasing, and the user needs are also increasing accordingly. For example, users using AR services are increasingly demanding to select and display content in the AR environment more accurately, intuitively, and conveniently.

상술한 정보는 본 개시에 대한 이해를 돕기 위한 목적으로 하는 배경 기술(related art)로 제공될 수 있다. 상술한 내용 중 어느 것도 본 개시와 관련된 종래 기술(prior art)로서 적용될 수 있는지에 대하여 어떠한 주장이나 결정이 제기되지 않는다.The above information may be provided as related art for the purpose of assisting in understanding the present disclosure. No claim or determination is made as to whether any of the above is applicable as prior art related to the present disclosure.

본 개시의 일 실시예에서는, 전자 장치들 간에 시각적 정보(예: 컨텐츠 또는 컨텐츠 뷰)를 공유하고, 시각적 정보를 전자 장치들 간의 상대적 위치에 기반하여 제공하는 전자 장치, 방법 및 기록 매체를 제공한다.In one embodiment of the present disclosure, an electronic device, a method, and a recording medium are provided for sharing visual information (e.g., content or content views) between electronic devices and providing the visual information based on relative positions between the electronic devices.

본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in this document are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art to which the present invention belongs from the description below.

본 개시의 일 실시예에 따른 전자 장치는, 디스플레이, 통신 회로, 인스트럭션들을 저장하는 메모리, 및 프로세서를 포함할 수 있다.An electronic device according to one embodiment of the present disclosure may include a display, a communication circuit, a memory storing instructions, and a processor.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금, 컨텐츠를 표시하도록 할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금, 상기 컨텐츠를 표시하는 동안, 상기 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하도록 할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금, 상기 전자 장치의 제1 표시 영역과 상기 대상 전자 장치의 제2 표시 영역이 중첩되는 영역에 기반하여 공유 영역을 결정하도록 할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금, 상기 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하도록 할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금, 상기 공유 영역에 기반하여 상기 컨텐츠를 이동 배치하여 표시하도록 할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금, 상기 컨텐츠 및 상기 공유 정보를 상기 대상 전자 장치로 전송하여, 상기 대상 전자 장치가 상기 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하도록 할 수 있다.In one embodiment, the instructions, when executed by the processor, may cause the electronic device to display content. The instructions, when executed by the processor, may cause the electronic device to connect with a target electronic device for sharing the content while displaying the content. The instructions, when executed by the processor, may cause the electronic device to determine a sharing area based on an overlapping area between a first display area of the electronic device and a second display area of the target electronic device. The instructions, when executed by the processor, may cause the electronic device to generate sharing information related to sharing of the content based on the sharing area. The instructions, when executed by the processor, may cause the electronic device to display the content by moving and arranging it based on the sharing area. The above instructions, when executed by the processor, may cause the electronic device to transmit the content and the shared information to the target electronic device, thereby controlling the target electronic device to display the content based on the shared area.

본 개시의 일 실시예에 따른 전자 장치의 동작 방법은, 컨텐츠를 표시하는 동작을 포함할 수 있다. 상기 동작 방법은, 상기 컨텐츠를 표시하는 동안, 상기 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하는 동작을 포함할 수 있다. 상기 동작 방법은, 상기 전자 장치의 제1 표시 영역과 상기 대상 전자 장치의 제2 표시 영역이 중첩되는 영역에 기반하여 공유 영역을 결정하는 동작을 포함할 수 있다. 상기 동작 방법은, 상기 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작을 포함할 수 있다. 상기 동작 방법은, 상기 공유 영역에 기반하여 상기 컨텐츠를 이동 배치하여 표시하는 동작을 포함할 수 있다. 상기 동작 방법은, 상기 컨텐츠 및 상기 공유 정보를 상기 대상 전자 장치로 전송하여, 상기 대상 전자 장치가 상기 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하는 동작을 포함할 수 있다.An operating method of an electronic device according to one embodiment of the present disclosure may include an operation of displaying content. The operating method may include an operation of connecting with a target electronic device for sharing the content while displaying the content. The operating method may include an operation of determining a sharing area based on an area where a first display area of the electronic device and a second display area of the target electronic device overlap. The operating method may include an operation of generating sharing information related to sharing of the content based on the sharing area. The operating method may include an operation of moving and arranging the content based on the sharing area. The operating method may include an operation of transmitting the content and the sharing information to the target electronic device and controlling the target electronic device to display the content based on the sharing area.

상기와 같은 과제를 해결하기 위하여 본 개시의 다양한 실시예들에서는, 상기 방법을 프로세서에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.In order to solve the above-mentioned problem, various embodiments of the present disclosure may include a computer-readable recording medium having recorded thereon a program for executing the method on a processor.

일 실시예에 따르면, 하나 이상의 프로그램들을 저장하는 비 일시적(non-transitory) 컴퓨터 판독 가능 저장 매체(또는 컴퓨터 프로그램 프로덕트(product))가 기술된다. 일 실시예에 따르면, 하나 이상의 프로그램들은, 전자 장치의 프로세서에 의해 실행될 시, 컨텐츠를 표시하는 동작, 상기 컨텐츠를 표시하는 동안, 상기 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하는 동작, 상기 전자 장치의 제1 표시 영역과 상기 대상 전자 장치의 제2 표시 영역이 중첩되는 영역에 기반하여 공유 영역을 결정하는 동작, 상기 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작, 상기 공유 영역에 기반하여 상기 컨텐츠를 이동 배치하여 표시하는 동작, 및 상기 컨텐츠 및 상기 공유 정보를 상기 대상 전자 장치로 전송하여, 상기 대상 전자 장치가 상기 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하는 동작을 수행하는 명령어를 포함할 수 있다.According to one embodiment, a non-transitory computer-readable storage medium (or a computer program product) storing one or more programs is described. According to one embodiment, the one or more programs may include instructions that, when executed by a processor of an electronic device, perform the following operations: displaying content; connecting with a target electronic device for sharing the content while displaying the content; determining a sharing area based on an area where a first display area of the electronic device and a second display area of the target electronic device overlap; generating sharing information related to sharing of the content based on the sharing area; moving and displaying the content based on the sharing area; and transmitting the content and the sharing information to the target electronic device to control the target electronic device to display the content based on the sharing area.

본 개시의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 개시의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 개시의 바람직한 실시예와 같은 특정 실시예는 단지 예시로 주어진 것으로 이해되어야 한다.Further scope of the applicability of the present disclosure will become apparent from the detailed description below. However, since various changes and modifications within the spirit and scope of the present disclosure will become apparent to those skilled in the art, it should be understood that the detailed description and specific embodiments, such as the preferred embodiments of the present disclosure, are given by way of example only.

본 개시의 일 실시예에 따른 전자 장치, 그 동작 방법 및 기록 매체에 따르면, 전자 장치들 간에 컨텐츠를 공유하고, 공유 컨텐츠를 사용자들 간의 상대적 위치에 기반하여 대응하는 위치에 각각 표시하도록 할 수 있다. 일 실시예에 따르면, 사용자들 간에 컨텐츠 공유에 기반하여 협업(또는 공동 작업)하는 환경에서, 협업에 따른 편의성 및 몰입감을 향상할 수 있다. 일 실시예에 따르면, 가상 서비스(예: AR 서비스 및/또는 VR 서비스)의 사용에 따른 사용자 니즈(needs)를 충족하고, 사용자에게 새로운 사용자 경험(UX, user experience)을 제공할 수 있다.According to an electronic device, an operation method thereof, and a recording medium according to one embodiment of the present disclosure, content can be shared between electronic devices, and the shared content can be respectively displayed at corresponding locations based on relative locations between users. According to one embodiment, in an environment where collaboration (or joint work) is performed based on content sharing between users, convenience and immersion according to collaboration can be improved. According to one embodiment, user needs according to the use of virtual services (e.g., AR services and/or VR services) can be satisfied, and a new user experience (UX) can be provided to the user.

이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다. 본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.In addition, various effects that can be directly or indirectly understood through this document can be provided. The effects that can be obtained from this disclosure are not limited to the effects mentioned above, and other effects that are not mentioned can be clearly understood by those skilled in the art to which this disclosure belongs from the description below.

도면 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 일 실시예에 따른 전자 장치의 일 예를 도시하는 도면이다.
도 3은 일 실시예에 따른 전자 장치의 내부 구조의 일 예를 도시하는 도면이다.
도 4a는 일 실시예에 따른 전자 장치와 다른 전자 장치 간의 네트워크 환경을 도시한 도면이다.
도 4b는 일 실시예에 따른 전자 장치에서 가상 환경을 표시하는 예를 도시하는 도면이다.
도 5는 일 실시예에 따른 전자 장치의 구성을 개략적으로 도시하는 도면이다.
도 6은 본 개시의 일 실시예에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 7a, 도 7b 및 도 7c는 본 개시의 일 실시예에 따른 전자 장치들 간에 컨텐츠를 공유하는 동작의 예를 나타낼 수 있다.
도 8은 본 개시의 일 실시예에 따른 전자 장치들 간에 컨텐츠 공유 관련 동작을 제공하는 동작의 예를 도시하는 도면이다.
도 9는 본 개시의 일 실시예에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 10은 일 실시예에 따른 전자 장치에서 가상 공간에 기반하여 컨텐츠를 표시하는 동작의 예를 도시하는 도면이다.
도 11은 일 실시예에 따른 전자 장치들 간에 중첩 영역을 운영하는 동작의 예를 도시하는 도면이다.
도 12는 일 실시예에 따른 전자 장치들 간에 중첩 영역을 운영하는 동작의 예를 도시하는 도면이다.
도 13은 일 실시예에 따른 전자 장치들 간에 중첩 영역을 운영하는 동작의 예를 도시하는 도면이다.
도 14a 및 도 14b는 일 실시예에 따른 전자 장치들 간에 공유 컨텐츠를 표시하는 동작의 예를 도시하는 도면들이다.
도 15a 및 도 15b는 일 실시예에 따른 전자 장치들 간에 공유 컨텐츠를 표시하는 동작의 예를 도시하는 도면들이다.
도 16a 및 도 16b는 일 실시예에 따른 전자 장치들 간에 공유 컨텐츠를 표시하는 동작의 예를 도시하는 도면들이다.
도 17a 및 도 17b는 일 실시예에 따른 전자 장치들 간에 공유 컨텐츠를 표시하는 동작의 예를 도시하는 도면들이다.
도 18a 및 도 18b는 일 실시예에 따른 전자 장치들 간에 공유 컨텐츠를 표시하는 동작의 예를 도시하는 도면들이다.
In connection with the drawing description, the same or similar reference numerals may be used for identical or similar components.
FIG. 1 is a block diagram of an electronic device within a network environment according to various embodiments.
FIG. 2 is a diagram illustrating an example of an electronic device according to one embodiment.
FIG. 3 is a diagram illustrating an example of the internal structure of an electronic device according to one embodiment.
FIG. 4A is a diagram illustrating a network environment between an electronic device and another electronic device according to one embodiment.
FIG. 4b is a diagram illustrating an example of displaying a virtual environment in an electronic device according to one embodiment.
FIG. 5 is a diagram schematically illustrating the configuration of an electronic device according to one embodiment.
FIG. 6 is a flowchart illustrating a method of operating an electronic device according to one embodiment of the present disclosure.
FIGS. 7A, 7B, and 7C may illustrate examples of operations for sharing content between electronic devices according to one embodiment of the present disclosure.
FIG. 8 is a diagram illustrating an example of an operation for providing content sharing related operations between electronic devices according to one embodiment of the present disclosure.
FIG. 9 is a flowchart illustrating a method of operating an electronic device according to one embodiment of the present disclosure.
FIG. 10 is a diagram illustrating an example of an operation of displaying content based on a virtual space in an electronic device according to one embodiment.
FIG. 11 is a diagram illustrating an example of an operation of operating an overlapping area between electronic devices according to one embodiment.
FIG. 12 is a diagram illustrating an example of an operation of operating an overlapping area between electronic devices according to one embodiment.
FIG. 13 is a diagram illustrating an example of an operation of operating an overlapping area between electronic devices according to one embodiment.
FIGS. 14A and 14B are diagrams illustrating examples of operations for displaying shared content between electronic devices according to one embodiment.
FIGS. 15A and 15B are diagrams illustrating examples of operations for displaying shared content between electronic devices according to one embodiment.
FIGS. 16A and 16B are diagrams illustrating examples of operations for displaying shared content between electronic devices according to one embodiment.
FIGS. 17A and 17B are diagrams illustrating examples of operations for displaying shared content between electronic devices according to one embodiment.
FIGS. 18A and 18B are diagrams illustrating examples of operations for displaying shared content between electronic devices according to one embodiment.

이하에서는 도면을 참조하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 도면의 설명과 관련하여, 동일하거나 유사한 구성 요소에 대해서는 동일하거나 유사한 참조 부호가 사용될 수 있다. 또한, 도면 및 관련된 설명에서는, 잘 알려진 기능 및 구성에 대한 설명이 명확성과 간결성을 위해 생략될 수 있다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings so that those skilled in the art can easily implement the present disclosure. However, the present disclosure may be implemented in various different forms and is not limited to the embodiments described herein. In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components. In addition, in the drawings and related descriptions, descriptions of well-known functions and configurations may be omitted for clarity and conciseness.

도 1은 다양한 실시예들에 따른 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.FIG. 1 is a block diagram of an electronic device (101) within a network environment (100) according to various embodiments.

도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성 요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성 요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성 요소(예: 디스플레이 모듈(160))로 통합될 수 있다.Referring to FIG. 1, in a network environment (100), an electronic device (101) may communicate with an electronic device (102) via a first network (198) (e.g., a short-range wireless communication network), or may communicate with at least one of an electronic device (104) or a server (108) via a second network (199) (e.g., a long-range wireless communication network). According to one embodiment, the electronic device (101) may communicate with the electronic device (104) via the server (108). According to one embodiment, the electronic device (101) may include a processor (120), a memory (130), an input module (150), an audio output module (155), a display module (160), an audio module (170), a sensor module (176), an interface (177), a connection terminal (178), a haptic module (179), a camera module (180), a power management module (188), a battery (189), a communication module (190), a subscriber identification module (196), or an antenna module (197). In some embodiments, the electronic device (101) may omit at least one of these components (e.g., the connection terminal (178)), or may include one or more other components. In some embodiments, some of these components (e.g., the sensor module (176), the camera module (180), or the antenna module (197)) may be integrated into one component (e.g., the display module (160)).

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성 요소(예: 하드웨어 또는 소프트웨어 구성 요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성 요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치(CPU, central processing unit) 또는 어플리케이션 프로세서(AP, application processor)) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치(GPU, graphic processing unit), 신경망 처리 장치(NPU, neural processing unit), 이미지 시그널 프로세서(ISP, image signal processor), 센서 허브 프로세서(sensor hub processor), 또는 커뮤니케이션 프로세서(CP, communication processor))를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor (120) may control at least one other component (e.g., a hardware or software component) of the electronic device (101) connected to the processor (120) by executing, for example, software (e.g., a program (140)), and may perform various data processing or calculations. According to one embodiment, as at least a part of the data processing or calculations, the processor (120) may store a command or data received from another component (e.g., a sensor module (176) or a communication module (190)) in the volatile memory (132), process the command or data stored in the volatile memory (132), and store result data in the nonvolatile memory (134). According to one embodiment, the processor (120) may include a main processor (121) (e.g., a central processing unit (CPU) or an application processor (AP)) or an auxiliary processor (123) (e.g., a graphic processing unit (GPU), a neural processing unit (NPU), an image signal processor (ISP), a sensor hub processor, or a communication processor (CP)) that can operate independently or together with the main processor (121). For example, when the electronic device (101) includes the main processor (121) and the auxiliary processor (123), the auxiliary processor (123) may be configured to use lower power than the main processor (121) or to be specialized for a given function. The auxiliary processor (123) may be implemented separately from the main processor (121) or as a part thereof.

보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(inactive)(예: 슬립(sleep)) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성 요소들 중 적어도 하나의 구성 요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The auxiliary processor (123) may control at least a part of functions or states related to at least one component (e.g., a display module (160), a sensor module (176), or a communication module (190)) of the electronic device (101), for example, on behalf of the main processor (121) while the main processor (121) is in an inactive (e.g., sleep) state, or together with the main processor (121) while the main processor (121) is in an active (e.g., application execution) state. In one embodiment, the auxiliary processor (123) (e.g., an image signal processor or a communication processor) may be implemented as a part of another functionally related component (e.g., a camera module (180) or a communication module (190)). In one embodiment, the auxiliary processor (123) (e.g., a neural network processing device) may include a hardware structure specialized for processing an artificial intelligence model. The artificial intelligence model may be generated through machine learning. Such learning may be performed, for example, in the electronic device (101) itself on which the artificial intelligence model is executed, or may be performed through a separate server (e.g., server (108)). The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above. The artificial intelligence model may include a plurality of artificial neural network layers. The artificial neural network may be one of a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted Boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of the above, but is not limited to the examples described above. In addition to the hardware structure, the artificial intelligence model may additionally or alternatively include a software structure.

메모리(130)는, 전자 장치(101)의 적어도 하나의 구성 요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.The memory (130) can store various data used by at least one component (e.g., a processor (120) or a sensor module (176)) of the electronic device (101). The data can include, for example, software (e.g., a program (140)) and input data or output data for commands related thereto. The memory (130) can include a volatile memory (132) or a nonvolatile memory (134).

프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(OS, operating system)(142), 미들 웨어(middleware)(144) 또는 어플리케이션(146)을 포함할 수 있다.The program (140) may be stored as software in the memory (130) and may include, for example, an operating system (OS) (142), middleware (144), or an application (146).

입력 모듈(150)은, 전자 장치(101)의 구성 요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.The input module (150) can receive commands or data to be used in a component of the electronic device (101) (e.g., a processor (120)) from an external source (e.g., a user) of the electronic device (101). The input module (150) can include, for example, a microphone, a mouse, a keyboard, a key (e.g., a button), or a digital pen (e.g., a stylus pen).

음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The audio output module (155) can output an audio signal to the outside of the electronic device (101). The audio output module (155) can include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive an incoming call. According to one embodiment, the receiver can be implemented separately from the speaker or as a part thereof.

디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.The display module (160) can visually provide information to an external party (e.g., a user) of the electronic device (101). The display module (160) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device. According to one embodiment, the display module (160) can include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of a force generated by the touch.

오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module (170) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (170) can obtain sound through an input module (150), or output sound through an audio output module (155), or an external electronic device (e.g., an electronic device (102)) (e.g., a speaker or a headphone) directly or wirelessly connected to the electronic device (101).

센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.The sensor module (176) can detect an operating state (e.g., power or temperature) of the electronic device (101) or an external environmental state (e.g., user state) and generate an electric signal or data value corresponding to the detected state. According to one embodiment, the sensor module (176) can include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.

인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD(secure digital) 카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface (177) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (101) with an external electronic device (e.g., the electronic device (102)). According to one embodiment, the interface (177) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, a secure digital (SD) card interface, or an audio interface.

연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal (178) may include a connector through which the electronic device (101) may be physically connected to an external electronic device (e.g., the electronic device (102)). According to one embodiment, the connection terminal (178) may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).

햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module (179) can convert an electrical signal into a mechanical stimulus (e.g., vibration or movement) or an electrical stimulus that a user can perceive through a tactile or kinesthetic sense. According to one embodiment, the haptic module (179) can include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module (180) can capture still images and moving images. According to one embodiment, the camera module (180) can include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module (188) can manage power supplied to the electronic device (101). According to one embodiment, the power management module (188) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).

배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery (189) can power at least one component of the electronic device (101). According to one embodiment, the battery (189) can include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN(wide area network))와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.The communication module (190) may support establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (101) and an external electronic device (e.g., the electronic device (102), the electronic device (104), or the server (108)), and performance of communication through the established communication channel. The communication module (190) may operate independently from the processor (120) (e.g., the application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module (190) may include a wireless communication module (192) (e.g., a cellular communication module, a short-range wireless communication module, or a GNSS (global navigation satellite system) communication module) or a wired communication module (194) (e.g., a local area network (LAN) communication module or a power line communication module). Among these communication modules, a corresponding communication module can communicate with an external electronic device (104) via a first network (198) (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network (199) (e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or a wide area network (WAN))). These various types of communication modules can be integrated into a single component (e.g., a single chip) or implemented as a plurality of separate components (e.g., multiple chips). The wireless communication module (192) can verify or authenticate the electronic device (101) within a communication network such as the first network (198) or the second network (199) by using subscriber information (e.g., an international mobile subscriber identity (IMSI)) stored in the subscriber identification module (196).

무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB, enhanced mobile broadband), 단말 전력 최소화와 다수 단말의 접속(mMTC, massive machine type communications), 또는 고신뢰도와 저지연(URLLC, ultra-reliable and low-latency communications)을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO, full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module (192) can support a 5G network and next-generation communication technology after a 4G network, for example, NR access technology (new radio access technology). The NR access technology can support high-speed transmission of high-capacity data (eMBB, enhanced mobile broadband), minimization of terminal power and connection of multiple terminals (mMTC, massive machine type communications), or high reliability and low latency communications (URLLC, ultra-reliable and low-latency communications). The wireless communication module (192) can support, for example, a high-frequency band (e.g., mmWave band) to achieve a high data transmission rate. The wireless communication module (192) can support various technologies for securing performance in a high-frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), full dimensional MIMO (FD-MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module (192) can support various requirements specified in an electronic device (101), an external electronic device (e.g., electronic device (104)), or a network system (e.g., second network (199)). According to one embodiment, the wireless communication module (192) may support a peak data rate (e.g., 20 Gbps or more) for eMBB realization, a loss coverage (e.g., 164 dB or less) for mMTC realization, or a U-plane latency (e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip) for URLLC realization.

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The antenna module (197) can transmit or receive signals or power to or from the outside (e.g., an external electronic device). According to one embodiment, the antenna module (197) can include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (e.g., a PCB). According to one embodiment, the antenna module (197) can include a plurality of antennas (e.g., an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network, such as the first network (198) or the second network (199), can be selected from the plurality of antennas by, for example, the communication module (190). A signal or power can be transmitted or received between the communication module (190) and the external electronic device through the selected at least one antenna. According to some embodiments, in addition to the radiator, another component (e.g., a radio frequency integrated circuit (RFIC)) can be additionally formed as a part of the antenna module (197).

다양한 실시예들에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module (197) can form a mmWave antenna module. According to one embodiment, the mmWave antenna module can include a printed circuit board, an RFIC positioned on or adjacent a first side (e.g., a bottom side) of the printed circuit board and capable of supporting a designated high-frequency band (e.g., a mmWave band), and a plurality of antennas (e.g., an array antenna) positioned on or adjacent a second side (e.g., a top side or a side) of the printed circuit board and capable of transmitting or receiving signals in the designated high-frequency band.

상기 구성 요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the above components may be interconnected and exchange signals (e.g., commands or data) with each other via a communication method between peripheral devices (e.g., a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)).

일 실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC, mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.In one embodiment, commands or data may be transmitted or received between the electronic device (101) and an external electronic device (104) via a server (108) connected to a second network (199). Each of the external electronic devices (102 or 104) may be the same or a different type of device as the electronic device (101). In one embodiment, all or part of the operations executed in the electronic device (101) may be executed in one or more of the external electronic devices (102, 104, or 108). For example, when the electronic device (101) is to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device (101) may, instead of or in addition to executing the function or service itself, request one or more external electronic devices to perform at least a part of the function or service. One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device (101). The electronic device (101) may provide the result, as is or additionally processed, as at least a part of a response to the request. For this purpose, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used. The electronic device (101) may provide an ultra-low latency service by using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device (104) may include an IoT (Internet of Things) device. The server (108) may be an intelligent server using machine learning and/or a neural network. According to one embodiment, the external electronic device (104) or the server (108) may be included in the second network (199). The electronic device (101) can be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.

본 개시의 다양한 실시예들을 서술하기에 앞서, 본 개시의 실시예가 적용될 수 있는 전자 장치(101)에 대하여 설명한다.Before describing various embodiments of the present disclosure, an electronic device (101) to which an embodiment of the present disclosure can be applied is described.

도 2는 일 실시예에 따른 전자 장치의 일 예를 도시하는 도면이다.FIG. 2 is a diagram illustrating an example of an electronic device according to one embodiment.

일 실시예에 따라, 도 2에서는 전자 장치(101)가 안경 형태의 웨어러블 전자 장치(201)(예: 안경형 디스플레이 장치 또는 AR(augmented reality) 글래스)인 예를 도시하고 있으나, 이에 한정하는 것은 아니다. 예를 들면, 웨어러블 전자 장치(201)는, 디스플레이를 포함하고, 사용자의 신체 일부(예: 얼굴 또는 머리 부분)에 착용(또는 장치)되어, 증강 현실(AR, augmented reality), 혼합 현실(MR, mixed reality), 가상 현실(VR, virtual reality), 및/또는 확장 현실(XR, extended reality) 서비스를 제공하는 다양한 형태의 장치를 포함할 수 있다. 예를 들어, 웨어러블 전자 장치(201)는 안경(glass), 고글(goggles), 헬멧 또는 모자 형태 중 적어도 하나의 형태로 구현될 수 있으며, 이에 한정하는 것은 아니다.According to one embodiment, FIG. 2 illustrates an example in which the electronic device (101) is a wearable electronic device (201) in the form of glasses (e.g., a glasses-type display device or AR (augmented reality) glasses), but is not limited thereto. For example, the wearable electronic device (201) may include various forms of devices that include a display and are worn (or installed) on a part of a user's body (e.g., a face or a head) to provide augmented reality (AR), mixed reality (MR), virtual reality (VR), and/or extended reality (XR) services. For example, the wearable electronic device (201) may be implemented in at least one form of glasses, goggles, a helmet, or a hat, but is not limited thereto.

일 실시예에 따르면, 웨어러블 전자 장치(201)는 VST(video see-through) 기기를 포함할 수 있다. 예를 들어, VST 기기는 증강 현실과 가상 현실 서비스를 선택적으로 제공할 수 있다. VST 기기는 복수의 카메라들을 포함할 수 있으며, 복수의 카메라들(예: 도 3의 시선 추적 카메라(312-1, 312-2))을 기초로 사용자의 시선을 추적할 수 있다. 일 실시예에서, 시선 추적(eye tracking)은 사용자의 시선의 위치 및/또는 움직임을 추적하는 기술을 나타낼 수 있다. 일 실시예에 따르면, VST기기는 복수의 카메라들을 기초로 사용자 전방의 실세계(real world)를 촬영 또는 검출하여 디스플레이(예: 사용자의 양안에 각각 대응하는 디스플레이)를 통해 실세계를 표시할 수 있다. VST 기기는 실세계를 표시하면서 가상 객체를 표시함으로써 증강 현실 서비스를 제공할 수 있다.According to one embodiment, the wearable electronic device (201) may include a VST (video see-through) device. For example, the VST device may selectively provide augmented reality and virtual reality services. The VST device may include a plurality of cameras and may track the gaze of a user based on the plurality of cameras (e.g., the gaze tracking cameras 312-1 and 312-2 of FIG. 3). In one embodiment, eye tracking may refer to a technology for tracking the position and/or movement of a user's gaze. According to one embodiment, the VST device may capture or detect the real world in front of the user based on the plurality of cameras and display the real world through a display (e.g., a display corresponding to each of the user's two eyes). The VST device may provide an augmented reality service by displaying a virtual object while displaying the real world.

이하에서 설명되는 웨어러블 전자 장치(201)는 앞서 도 1을 참조하여 설명한 바와 같은 전자 장치(101)에 포함된 구성 요소 중 적어도 일부를 포함하는 장치일 수 있다. 이하 설명에서 언급되지 않더라도 본 개시에 따른 웨어러블 전자 장치(201)는 도 1을 참조하여 설명한 바와 같은 다양한 구성 요소들을 포함할 수 있는 것으로 해석될 수 있다.The wearable electronic device (201) described below may be a device including at least some of the components included in the electronic device (101) described above with reference to FIG. 1. Even if not mentioned in the description below, it may be interpreted that the wearable electronic device (201) according to the present disclosure may include various components as described with reference to FIG. 1.

일 실시예에 따르면, 웨어러블 전자 장치(201)는 사용자의 얼굴에 착용되어, 사용자에게 영상(예: 증강 현실 영상, 혼합 현실 영상 및/또는 가상 현실 영상)을 제공할 수 있다. 일 실시예에 따라, 웨어러블 전자 장치(201)는 실제 현실 공간(또는 환경)의 적어도 일부에 가상 정보(또는 가상 객체)를 덧붙이는 AR 서비스를 제공할 수 있다. 예를 들어, 웨어러블 전자 장치(201)는, 착용자의 시야각(FOV, field of view)에 대응하는 실제 현실 공간에 가상 정보를 겹쳐서 사용자에게 제공할 수 있다.According to one embodiment, the wearable electronic device (201) may be worn on a user's face and may provide an image (e.g., an augmented reality image, a mixed reality image, and/or a virtual reality image) to the user. According to one embodiment, the wearable electronic device (201) may provide an AR service that superimposes virtual information (or virtual objects) on at least a part of an actual real space (or environment). For example, the wearable electronic device (201) may provide the user with virtual information by superimposing it on an actual real space corresponding to the wearer's field of view (FOV).

도 2를 참조하면, 웨어러블 전자 장치(201)는 사용자의 양안(예: 좌안 및 우안)에 대응하는 위치에 배치되는 글래스 부재(또는 윈도우 부재)(210), 글래스 부재(210)를 고정하는 메인 프레임(또는 본체부)(240), 메인 프레임(240)의 양단에서 연결되어 사용자의 귀에 거치되는 지지 프레임(또는 지지 부재)(250), 및 카메라 모듈(280)(예: 촬영용 카메라)을 포함할 수 있다.Referring to FIG. 2, a wearable electronic device (201) may include a glass member (or window member) (210) positioned at positions corresponding to the user's two eyes (e.g., left eye and right eye), a main frame (or main body) (240) that fixes the glass member (210), a support frame (or support member) (250) that is connected to both ends of the main frame (240) and is placed on the user's ear, and a camera module (280) (e.g., a camera for taking pictures).

일 실시예에 따르면, 글래스 부재(210)는 사용자의 좌안에 대응하는 제1 글래스(220)와 사용자의 우안에 대응하는 제2 글래스(230)를 포함할 수 있다. 일 실시예에 따라, 글래스 부재(210)는 메인 프레임(240)에 의해 지지될 수 있다. 예를 들어, 메인 프레임(240)에 형성된 개구부에 글래스 부재(210)가 끼워질 수 있다. 일 실시예에 따라, 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))에서 방출되는 AR 영상은 글래스 부재(210)에 투영될 수 있다.According to one embodiment, the glass member (210) may include a first glass (220) corresponding to the user's left eye and a second glass (230) corresponding to the user's right eye. According to one embodiment, the glass member (210) may be supported by the main frame (240). For example, the glass member (210) may be fitted into an opening formed in the main frame (240). According to one embodiment, an AR image emitted from a display module (e.g., the display module (160) of FIG. 1) may be projected onto the glass member (210).

일 실시예에 따르면, 글래스 부재(210)는 적어도 일부 영역에 도파로(예: 광도파로(waveguide) 또는 투명 도파로(transparent waveguide))가 형성될 수 있다. 일 실시예에서, 도파로는 디스플레이 모듈에서 방출된 AR 영상을 사용자의 눈으로 유도하는 역할을 할 수 있다. 도파로에 대한 상세한 설명은 도 3의 제1 글래스(220) 및 제2 글래스(230)와 관련된 설명을 참조하여 설명된다.According to one embodiment, the glass member (210) may have a waveguide (e.g., a waveguide or a transparent waveguide) formed in at least a portion of the region. In one embodiment, the waveguide may serve to guide an AR image emitted from the display module to the user's eyes. A detailed description of the waveguide is described with reference to the description related to the first glass (220) and the second glass (230) of FIG. 3.

일 실시예에 따라, 글래스 부재(210)는, 도 2에 예시된 바와 같이, 사용자의 좌안과 우안에 각각 대응되도록 제1 글래스(220) 및 제2 글래스(230)로 분리되는 형태로 구현하는 것을 예로 하였으나, 어떤 실시예에 따르면, 글래스 부재(210)는 제1 글래스(220)와 제2 글래스(230)의 구분 없이 하나의 글래스 형태로 구현될 수도 있다.According to one embodiment, the glass member (210) is implemented as a form that is separated into a first glass (220) and a second glass (230) to correspond to the left and right eyes of the user, respectively, as illustrated in FIG. 2. However, according to some embodiments, the glass member (210) may be implemented as a single glass form without distinction between the first glass (220) and the second glass (230).

일 실시예에 따라, 메인 프레임(240) 및 지지 프레임(250)은 안경 형태로 구현될 수 있다.According to one embodiment, the main frame (240) and the support frame (250) may be implemented in the form of glasses.

일 실시예에서, 메인 프레임(240)은 사용자의 코에 적어도 부분적으로 거치되는 구조일 수 있다. 일 실시예에 따르면, 메인 프레임(240)은 글래스 부재(210)를 지지할 수 있다. 일 실시예에 따르면, 메인 프레임(240)은 합성 수지 소재로 형성될 수 있다. 일 실시예에 따르면, 메인 프레임(240)에 형성된 개구부에 글래스 부재(210)가 끼워짐으로써, 메인 프레임(240)이 글래스 부재(210)를 지지할 수 있다.In one embodiment, the main frame (240) may be a structure that is at least partially placed on the user's nose. According to one embodiment, the main frame (240) may support the glass member (210). According to one embodiment, the main frame (240) may be formed of a synthetic resin material. According to one embodiment, the glass member (210) may be fitted into an opening formed in the main frame (240), thereby allowing the main frame (240) to support the glass member (210).

일 실시예에서, 지지 프레임(250)은 제1 방향 귀(예: 왼쪽 귀)에 거치되는 제1 지지 프레임(260)과 제2 방향 귀(예: 오른쪽 귀)에 거치되는 제2 지지 프레임(270)을 포함할 수 있다. 예를 들어, 메인 프레임(240)과 지지 프레임(250)(예: 제1 지지 프레임(260) 및 제2 지지 프레임(270))은 힌지부(미도시)를 통해 연결될 수 있으며, 폴딩(folding)이 가능하도록 결합될 수 있다.In one embodiment, the support frame (250) may include a first support frame (260) mounted on a first direction ear (e.g., a left ear) and a second support frame (270) mounted on a second direction ear (e.g., a right ear). For example, the main frame (240) and the support frame (250) (e.g., the first support frame (260) and the second support frame (270)) may be connected through a hinge portion (not shown) and may be combined so as to enable folding.

일 실시예에서, 지지 프레임(250)은 메인 프레임(240)에 회전 가능하게 연결될 수 있다. 일 실시예에 따르면, 지지 프레임(250)은, 제1 지지 프레임(260)과 제2 지지 프레임(270)을 포함할 수 있다. 제1 지지 프레임(260)은 ‘A’ 방향에서 바라볼 때, 메인 프레임(240)에 대하여 좌측(예: 제1 방향)에서 메인 프레임(240)에 연결될 수 있다. 제2 지지 프레임(270)은 ‘A’ 방향에서 바라볼 때, 메인 프레임(240)에 대하여 우측(예: 제2 방향)에서 메인 프레임(240)에 연결될 수 있다.In one embodiment, the support frame (250) may be rotatably connected to the main frame (240). According to one embodiment, the support frame (250) may include a first support frame (260) and a second support frame (270). The first support frame (260) may be connected to the main frame (240) from the left side (e.g., the first direction) with respect to the main frame (240) when viewed from the ‘A’ direction. The second support frame (270) may be connected to the main frame (240) from the right side (e.g., the second direction) with respect to the main frame (240) when viewed from the ‘A’ direction.

일 실시예에서, 지지 프레임(250)은 메인 프레임(240)에 고정 설치될 수도 있다. 예를 들어, 메인 프레임(240)의 좌측에 연결된 제1 지지 프레임(260)과, 메인 프레임(240)의 우측에 연결된 제2 지지 프레임(270)이 서로 연결되도록 형성될 수도 있다. 일 실시예에 따르면, 메인 프레임(240)의 양측에 연결된 지지 프레임(250)은 링(ring) 형태를 이루고 사용자의 머리에 끼워지는 방식으로 착용될 수 있다. 이 밖에도 지지 프레임(250)은 사용자의 얼굴에 웨어러블 전자 장치(201)가 착용될 수 있는 다양한 형태로 변형될 수 있다.In one embodiment, the support frame (250) may be fixedly installed on the main frame (240). For example, a first support frame (260) connected to the left side of the main frame (240) and a second support frame (270) connected to the right side of the main frame (240) may be formed to be connected to each other. According to one embodiment, the support frames (250) connected to both sides of the main frame (240) may be worn in a ring shape and fitted onto the user's head. In addition, the support frame (250) may be transformed into various shapes so that the wearable electronic device (201) may be worn on the user's face.

일 실시예에 따르면, 지지 프레임(250)은 사용자의 귀에 걸치도록 형성될 수 있다. 예를 들면, 메인 프레임(240)에 연결된 지지 프레임(250)이 사용자의 귀에 걸쳐지는 방식으로 웨어러블 전자 장치(201)가 사용자의 얼굴에 착용될 수 있다. 일 실시예에 따라, 지지 프레임(250)은 메인 프레임(240)에 대해 회전할 수 있다. 일 실시예에 따라, 지지 프레임(250)이 메인 프레임(240)에 근접하는 방향으로 회전되어 웨어러블 전자 장치(201)의 부피가 줄어들 수 있다.In one embodiment, the support frame (250) may be formed to be hung over the user's ear. For example, the wearable electronic device (201) may be worn on the user's face in such a way that the support frame (250) connected to the main frame (240) is hung over the user's ear. In one embodiment, the support frame (250) may be rotated relative to the main frame (240). In one embodiment, the support frame (250) may be rotated in a direction closer to the main frame (240) to reduce the volume of the wearable electronic device (201).

일 실시예에 따르면, 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))은 전자 장치(201)의 프로세서(120)(예: 도 1의 프로세서(120)) 또는 전자 장치(201)와 연결된 다른 전자 장치(예: 테더드(tethered) 전자 장치(예: 스마트 폰))의 프로세서에서 생성된 AR 영상을 출력할 수 있다. 디스플레이 모듈에서 AR 영상을 생성하여 글래스 부재(210)에 투영하면, 글래스 부재(210)를 통해 전방(예: 사용자가 바라보는 방향)으로부터 입사되는 가시광(L)에, AR 영상에 포함된 객체가 합쳐져 AR이 구현될 수 있다. 디스플레이 모듈은 크기가 매우 작은 프로젝터(예: 마이크로 프로젝터, 피코 프로젝터)일 수 있다. 예를 들어, 디스플레이 모듈은 LSD(laser scanning display), DMD(digital micro-mirror display) 및/또는 LCoS(liquid crystal on silicon)일 수 있다. 일 실시예에 따르면, 디스플레이 모듈은 투명 디스플레이일 수 있다. 이러한 경우, 디스플레이 모듈에 포함된 발광 소자는 글래스 부재(210)에 직접 배치될 수 있다. 이 밖에도 디스플레이 모듈은 AR을 구현하기 위한 다양한 디스플레이 장치일 수 있다.According to one embodiment, a display module (e.g., the display module (160) of FIG. 1) can output an AR image generated by a processor (120) of an electronic device (201) (e.g., the processor (120) of FIG. 1) or a processor of another electronic device (e.g., a tethered electronic device (e.g., a smart phone)) connected to the electronic device (201). When an AR image is generated by the display module and projected onto a glass member (210), an object included in the AR image can be combined with visible light (L) incident from the front (e.g., in the direction the user is looking) through the glass member (210) to implement AR. The display module can be a very small projector (e.g., a micro projector, a pico projector). For example, the display module can be a laser scanning display (LSD), a digital micro-mirror display (DMD), and/or a liquid crystal on silicon (LCoS). According to one embodiment, the display module can be a transparent display. In this case, the light-emitting element included in the display module can be directly placed on the glass member (210). In addition, the display module can be a variety of display devices for implementing AR.

일 실시예에서, 글래스 부재(210), 지지 프레임(250), 및/또는 디스플레이 모듈은 사용자의 좌안과 우안에 대응되도록 한 쌍으로 마련될 수 있다. 예를 들어, 글래스 부재(210)는 제1 글래스(220) 및 제2 글래스(230)를 포함할 수 있고, 지지 프레임(250)은 제1 지지 프레임(260) 및 제2 지지 프레임(270)을 포함할 수 있다. 일 실시예에 따르면, 앞서 설명한 구성 요소 중 적어도 일부는 좌안에 대응하는 구성과 우안에 대응하는 구성이 상이할 수 있다.In one embodiment, the glass member (210), the support frame (250), and/or the display module may be provided as a pair to correspond to the left and right eyes of the user. For example, the glass member (210) may include a first glass (220) and a second glass (230), and the support frame (250) may include a first support frame (260) and a second support frame (270). According to one embodiment, at least some of the components described above may have different configurations corresponding to the left eye and the right eye.

일 실시예에 따라, 카메라 모듈(280)은, 예를 들면, 촬영용 카메라(예: 전방 촬영 카메라)를 나타낼 수 있다. 예를 들면, 카메라 모듈(280)은 웨어러블 전자 장치(201)의 전면(또는 사용자가 바라보는 전면)의 피사체를 촬영하도록, 메인 프레임(240)에 배치하여 구현될 수 있다. 예를 들어, 카메라 모듈(280)은 메인 프레임(240)의 전방을 촬영할 수 있도록 메인 프레임(240)에서 제1 글래스(220)와 제2 글래스(230) 사이의 중앙 부분(또는 중심점)에 배치될 수 있다. 일 실시예에서, 메인 프레임(240)의 전방은 사용자가 웨어러블 전자 장치(201)를 착용했을 때, 사용자가 바라보는 방향을 의미할 수 있다.In one embodiment, the camera module (280) may represent, for example, a camera for shooting (e.g., a front shooting camera). For example, the camera module (280) may be implemented by being placed in the main frame (240) to shoot a subject in the front (or the front that the user is looking at) of the wearable electronic device (201). For example, the camera module (280) may be placed in a central portion (or a central point) between the first glass (220) and the second glass (230) in the main frame (240) to shoot a front of the main frame (240). In one embodiment, the front of the main frame (240) may mean a direction in which the user is looking when wearing the wearable electronic device (201).

일 실시예에 따르면, 카메라 모듈(280)은 적어도 하나의 카메라를 포함할 수 있으며, 웨어러블 전자 장치(201)는 카메라 모듈(280)을 통해 사용자 전방에 위치한 실세계의 촬영, 사물의 인지, 및/또는 3차원 깊이 정보를 포함한 공간의 인지와 같은 동작 수행할 수 있다. 일 실시예에 따르면, 웨어러블 전자 장치(201)는 카메라 모듈(280)을 통해 웨어러블 전자 장치(201)를 기준으로 인지된 사물의 상대적 위치 정보(예: 상대 좌표) 또는 인지된 공간에서의 사물의 위치 정보(예: 절대 좌표)를 획득할 수도 있다.According to one embodiment, the camera module (280) may include at least one camera, and the wearable electronic device (201) may perform operations such as photographing the real world located in front of the user, recognizing objects, and/or recognizing space including three-dimensional depth information through the camera module (280). According to one embodiment, the wearable electronic device (201) may also obtain relative position information (e.g., relative coordinates) of an object recognized based on the wearable electronic device (201) or position information (e.g., absolute coordinates) of an object in the recognized space through the camera module (280).

일 실시예에서, 웨어러블 전자 장치(201)는 카메라 모듈(280)을 비롯하여, 복수의 다른 카메라들을 포함할 수 있으며, 카메라 모듈(280) 및 복수의 다른 카메라들에 대한 상세한 설명은 도 3을 참조하여 설명된다.In one embodiment, the wearable electronic device (201) may include a camera module (280) and a plurality of other cameras, and a detailed description of the camera module (280) and the plurality of other cameras is described with reference to FIG. 3.

도 3은 일 실시예에 따른 전자 장치의 내부 구조의 일 예를 도시하는 도면이다.FIG. 3 is a drawing illustrating an example of the internal structure of an electronic device according to one embodiment.

일 실시예에 따르면, 웨어러블 전자 장치(201)(예: 도 1의 전자 장치(101))는 사용자의 얼굴 또는 머리 부분에 착용되는 형태로 구현된 장치일 수 있다. 일 실시예에 따르면, 웨어러블 전자 장치(201)는 사용자의 양안(예: 좌안 및 우안) 각각에 대응하는 복수의 글래스들(예: 제1 글래스(220) 및 제2 글래스(230))을 포함할 수 있고, 안경 형태로 구현될 수 있다. 일 실시예에 따르면, 웨어러블 전자 장치(201)는 사용자에게 AR 서비스와 관련된 영상을 제공할 수 있다. 일 실시예에 따르면, 웨어러블 전자 장치(201)는 제1 글래스(220) 및/또는 제2 글래스(230)에 가상 객체를 투영하거나 표시함으로써, 사용자가 웨어러블 전자 장치(201)의 제1 글래스(220) 및/또는 제2 글래스(230)를 통해 인지하는 현실 세계에 적어도 하나의 가상 객체가 겹쳐 보이도록 할 수 있다.According to one embodiment, the wearable electronic device (201) (e.g., the electronic device (101) of FIG. 1) may be a device implemented in a form that is worn on a user's face or head. According to one embodiment, the wearable electronic device (201) may include a plurality of glasses (e.g., the first glass (220) and the second glass (230)) corresponding to each of the user's two eyes (e.g., the left eye and the right eye) and may be implemented in the form of glasses. According to one embodiment, the wearable electronic device (201) may provide the user with an image related to an AR service. According to one embodiment, the wearable electronic device (201) may project or display a virtual object on the first glass (220) and/or the second glass (230), thereby allowing at least one virtual object to be superimposed on the real world perceived by the user through the first glass (220) and/or the second glass (230) of the wearable electronic device (201).

도 3을 참조하면, 일 실시예에 따른 웨어러블 전자 장치(201)는 메인 프레임(또는 본체부)(240), 지지 프레임(예: 제1 지지 프레임(260), 제2 지지 프레임(270)), 및 힌지부(예: 제1 힌지부(340-1), 제2 힌지부(340-2))를 포함할 수 있다.Referring to FIG. 3, a wearable electronic device (201) according to one embodiment may include a main frame (or main body) (240), a support frame (e.g., a first support frame (260), a second support frame (270)), and a hinge part (e.g., a first hinge part (340-1), a second hinge part (340-2)).

일 실시예에 따르면, 메인 프레임(240) 및 지지 프레임(예: 제1 지지 프레임(260), 및/또는 제2 지지 프레임(270))은 웨어러블 전자 장치(201)의 다양한 구성 요소들을 실장할 수 있다. 일 실시예에 따르면, 메인 프레임(240)과 지지 프레임(260, 270)은 힌지부(340-1, 340-2)를 통해 작동적으로 연결될 수 있다.According to one embodiment, the main frame (240) and the support frames (e.g., the first support frame (260) and/or the second support frame (270)) can mount various components of the wearable electronic device (201). According to one embodiment, the main frame (240) and the support frames (260, 270) can be operatively connected via hinge portions (340-1, 340-2).

일 실시예에 따라, 메인 프레임(240)은 사용자의 코에 적어도 부분적으로 거치될 수 있도록 형성된 부분을 포함할 수 있다.In one embodiment, the main frame (240) may include a portion formed to be at least partially resting on a user's nose.

일 실시예에 따라, 지지 프레임(260, 270)은 사용자의 귀에 걸쳐질 수 있는 형태의 지지 부재를 포함할 수 있다. 일 실시예에 따라, 지지 프레임(260, 270)은 사용자의 왼쪽 귀에 거치되는 제1 지지 프레임(260) 및 사용자의 오른쪽 귀에 거치되는 제2 지지 프레임(270)을 포함할 수 있다.In one embodiment, the support frame (260, 270) may include a support member that is shaped to be worn over the user's ear. In one embodiment, the support frame (260, 270) may include a first support frame (260) that is worn over the user's left ear and a second support frame (270) that is worn over the user's right ear.

일 실시예에 따라, 제1 힌지부(340-1)는 제1 지지 프레임(260)이 메인 프레임(240)에 대해 회전 가능하도록 제1 지지 프레임(260)과 메인 프레임(240)을 연결할 수 있다. 일 실시예에 따라, 제2 힌지부(340-2)는 제2 지지 프레임(270)이 메인 프레임(240)에 대해 회전 가능하도록 제2 지지 프레임(270)과 메인 프레임(240)을 연결할 수 있다. 다른 실시예에 따르면, 웨어러블 전자 장치(201)의 힌지부(340-1, 340-2)는 생략될 수 있다. 예를 들어, 지지 프레임(260, 270)은 메인 프레임(240)에 바로 연결되어 고정 설치될 수 있다.According to one embodiment, the first hinge portion (340-1) may connect the first support frame (260) and the main frame (240) so that the first support frame (260) may be rotatable relative to the main frame (240). According to one embodiment, the second hinge portion (340-2) may connect the second support frame (270) and the main frame (240) so that the second support frame (270) may be rotatable relative to the main frame (240). According to another embodiment, the hinge portions (340-1, 340-2) of the wearable electronic device (201) may be omitted. For example, the support frames (260, 270) may be directly connected to the main frame (240) and fixedly installed.

일 실시예에 따르면, 메인 프레임(240)은 사용자의 양안(예: 좌안 및 우안)에 대응하는 글래스(예: 제1 글래스(220) 및 제2 글래스(230)), 디스플레이 모듈(예: 제1 디스플레이 모듈(314-1) 및 제2 디스플레이 모듈(314-2)), 광도파로(예: 제1 광도파로(320) 및 제2 광도파로(330)), 카메라 모듈(280)(예: 촬영용 카메라 또는 전방 촬영 카메라), 인식용 카메라(예: 제1 인식용 카메라(311-1), 제2 인식용 카메라(311-2)), 및 시선 추적 카메라(예: 제1 시선 추적 카메라(312-1), 제2 시선 추적 카메라(312-2)), 적어도 하나의 마이크(예: 제1 마이크(341-1), 제2 마이크(341-2) 및/또는 제3 마이크(341-3)), 및 적어도 하나의 조명 부재(예: 제1 조명 부재(342-1) 및/또는 제2 조명 부재(342-2))를 포함할 수 있다.According to one embodiment, the main frame (240) includes glasses corresponding to the user's two eyes (e.g., the left eye and the right eye) (e.g., the first glass (220) and the second glass (230)), display modules (e.g., the first display module (314-1) and the second display module (314-2)), optical waveguides (e.g., the first optical waveguide (320) and the second optical waveguide (330)), a camera module (280) (e.g., a camera for shooting or a front shooting camera), a recognition camera (e.g., the first recognition camera (311-1), the second recognition camera (311-2)), and an eye tracking camera (e.g., the first eye tracking camera (312-1), the second eye tracking camera (312-2)), at least one microphone (e.g., the first microphone (341-1), the second microphone (341-2) and/or the third microphone (341-3)), and at least one lighting member (e.g., the first lighting member). It may include an absence (342-1) and/or a second lighting absence (342-2).

일 실시예에 따라, 웨어러블 전자 장치(201)는, 디스플레이 모듈(314-1, 314-2)에서 생성된 광이 글래스(220, 230)에 투영되어 다양한 정보를 표시할 수 있다. 예를 들어, 제1 디스플레이 모듈(314-1)에서 생성된 광은 제1 글래스(220)에 투영될 수 있고, 제2 디스플레이 모듈(314-2)에서 생성된 광은 제2 글래스(230)에 투영될 수 있다. 일 실시예에 따르면, 제1 글래스(220) 및 제2 글래스(230)는 적어도 일부가 투명한 소재(예: 투명 부재)로 형성될 수 있다. 일 실시예에 따르면, 사용자의 좌안에 대응하는 제1 글래스(220)(또는 제1 투명 부재)는 제1 디스플레이 모듈(314-1)와 연결되고, 사용자의 우안에 대응되는 제2 글래스(230)(또는 제2 투명 부재)는 제2 디스플레이 모듈(314-2)와 연결될 수 있다. 일 실시예에 따르면, 제1 글래스(220) 및 제2 글래스(230)는 글래스 플레이트, 플라스틱 플레이트 및/또는 폴리머로 형성될 수 있으며, 투명 또는 반투명하게 제작될 수 있다.According to one embodiment, the wearable electronic device (201) can display various information by projecting light generated from the display modules (314-1, 314-2) onto the glasses (220, 230). For example, light generated from the first display module (314-1) can be projected onto the first glass (220), and light generated from the second display module (314-2) can be projected onto the second glass (230). According to one embodiment, the first glass (220) and the second glass (230) can be formed of at least a portion of a transparent material (e.g., a transparent member). According to one embodiment, the first glass (220) (or the first transparent member) corresponding to the user's left eye can be connected to the first display module (314-1), and the second glass (230) (or the second transparent member) corresponding to the user's right eye can be connected to the second display module (314-2). According to one embodiment, the first glass (220) and the second glass (230) may be formed of a glass plate, a plastic plate, and/or a polymer, and may be made transparent or translucent.

일 실시예에 따르면, 디스플레이 모듈(예: 제1 디스플레이 모듈(314-1) 및 제2 디스플레이 모듈(314-2))은 액정 표시 장치(LCD, liquid crystal display), 디지털 미러 표시 장치(DMD, digital micro-mirror device), 실리콘 액정 표시 장치(LCoS, liquid crystal on silicon), 유기 발광 다이오드(OLED, organic light emitting diode) 또는 마이크로 엘이디(micro LED, micro light emitting diode)를 포함할 수 있다.According to one embodiment, the display modules (e.g., the first display module (314-1) and the second display module (314-2)) may include a liquid crystal display (LCD), a digital micro-mirror device (DMD), a liquid crystal on silicon (LCoS), an organic light emitting diode (OLED), or a micro light emitting diode (micro LED).

일 실시예에 따르면, 제1 글래스(220) 및 제2 글래스(230)는 집광 렌즈(condensing lens) 및/또는 광도파로(waveguide)(또는 투명 도파로(transparent waveguide))(예: 제1 광도파로(320), 제2 광도파로(330))를 포함할 수 있다. 일 실시예에 따라, 광도파로(320, 330)는 글래스(220, 230)의 일부에 적어도 부분적으로 위치할 수 있다. 예를 들어, 제1 광도파로(320)는 제1 글래스(220)에 부분적으로 위치할 수 있고, 제2 광도파로(330)은 제2 글래스(230)에 부분적으로 위치할 수 있다. 일 실시예에 따르면, 광도파로(320, 330)는 디스플레이 모듈(314-1, 314-2)에서 생성한 광원을 사용자 눈으로 전달하는 역할을 할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(314-1, 314-2)에서 방출된 광은 글래스(220, 230)의 일면(또는 일단)으로 입사될 수 있다. 글래스(220, 230)의 일면으로 입사된 광은 글래스(220, 230) 내에 형성된(또는 위치된) 광도파로(320, 330)를 통해 사용자에게 전달될 수 있다.According to one embodiment, the first glass (220) and the second glass (230) may include a condensing lens and/or an optical waveguide (or a transparent waveguide) (e.g., the first optical waveguide (320), the second optical waveguide (330)). According to one embodiment, the optical waveguides (320, 330) may be at least partially positioned on a portion of the glasses (220, 230). For example, the first optical waveguide (320) may be partially positioned on the first glass (220), and the second optical waveguide (330) may be partially positioned on the second glass (230). According to one embodiment, the optical waveguides (320, 330) may serve to transmit a light source generated by the display modules (314-1, 314-2) to the user's eyes. According to one embodiment, light emitted from the display module (314-1, 314-2) may be incident on one side (or one end) of the glass (220, 230). The light incident on one side of the glass (220, 230) may be transmitted to the user through the optical waveguide (320, 330) formed (or positioned) within the glass (220, 230).

일 실시예에서, 광도파로(320, 330)는 글래스, 플라스틱, 또는 폴리머로 제작될 수 있고, 내부 또는 외부의 일 표면에 형성된 나노 패턴을 포함할 수 있다. 나노 패턴은 다각형 또는 곡면 형상의 격자 구조(grating structure)를 포함할 수 있다. 일 실시예에 따르면, 글래스(220, 230)의 일면으로 입사된 광은 나노 패턴에 의해 광도파로(320, 330) 내부에서 전파 또는 반사되어 사용자에게 전달될 수 있다. 일 실시예에 따르면, 광도파로(320, 330)는 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 광도파로(320, 330)는 적어도 하나의 회절 요소 또는 반사 요소를 이용하여 디스플레이 모듈(314-1, 314-2)(예: 광원부)로부터 방출된 광을 사용자의 눈으로 유도할 수 있다.In one embodiment, the optical waveguide (320, 330) can be made of glass, plastic, or polymer, and can include a nano-pattern formed on one surface of the inner or outer surface. The nano-pattern can include a grating structure having a polygonal or curved shape. According to one embodiment, light incident on one surface of the glass (220, 230) can be propagated or reflected by the nano-pattern inside the optical waveguide (320, 330) and transmitted to the user. According to one embodiment, the optical waveguide (320, 330) can include at least one diffractive element (e.g., a diffractive optical element (DOE), a holographic optical element (HOE)) or at least one reflective element (e.g., a reflective mirror). According to one embodiment, the optical waveguide (320, 330) can guide light emitted from a display module (314-1, 314-2) (e.g., a light source unit) to a user's eye using at least one diffractive element or reflective element.

일 실시예에서, 회절 요소는 입력 광학 부재/출력 광학 부재(미도시)를 포함할 수 있다. 입력 광학 부재는 입력 그레이팅 영역(input grating area)을 의미할 수 있으며, 출력 광학 부재(미도시)는 출력 그레이팅 영역(output grating area)을 의미할 수 있다. 입력 그레이팅 영역은 디스플레이 모듈(314-1, 314-2)(예: micro LED)로부터 출력되는 빛을 글래스(예: 제1 글래스(220), 제2 글래스(230))로 전달하기 위해 회절(또는 반사)시키는 입력단 역할을 할 수 있다. 출력 그레이팅 영역은 광도파로(320, 330)의 글래스(예: 제1 글래스(220), 제2 글래스(230))에 전달된 빛을 사용자의 눈으로 회절(또는 반사)시키는 출구 역할을 할 수 있다.In one embodiment, the diffractive element may include an input optical member/output optical member (not shown). The input optical member may mean an input grating area, and the output optical member (not shown) may mean an output grating area. The input grating area may serve as an input terminal that diffracts (or reflects) light output from a display module (314-1, 314-2) (e.g., micro LED) to transmit it to a glass (e.g., a first glass (220), a second glass (230)). The output grating area may serve as an outlet that diffracts (or reflects) light transmitted to the glass (e.g., a first glass (220), a second glass (230)) of the optical waveguide (320, 330) to a user's eye.

일 실시예에서, 반사 요소는 전반사(TIR, total internal reflection)를 위한 전반사 광학 소자 또는 전반사 도파관을 포함할 수 있다. 전반사는 광을 유도하는 하나의 방식으로, 입력 그레이팅 영역을 통해 입력되는 빛(예: 가상 영상)이 광도파로(320, 330)의 일면(예: 지정된 면)에서 약 100% 반사되도록 입사각을 만들어, 출력 그레이팅 영역까지 약 100% 전달되도록 하는 것을 의미할 수 있다.In one embodiment, the reflective element may include a total internal reflection (TIR) optical element or waveguide for total internal reflection. Total internal reflection may mean a method of guiding light such that light (e.g., a virtual image) input through the input grating region is reflected about 100% from one side (e.g., a designated side) of the optical waveguide (320, 330) at an angle of incidence such that about 100% of the light is transmitted to the output grating region.

일 실시예에 따르면, 디스플레이 모듈(예: 314-1, 314-2)로부터 방출되는 광은 입력 광학 부재를 통해 광도파로(320, 330)로 광 경로가 유도될 수 있다. 광도파로(320, 330) 내부를 이동하는 광은 출력 광학 부재를 통해 사용자 눈 방향으로 유도될 수 있다.According to one embodiment, light emitted from a display module (e.g., 314-1, 314-2) may be guided along an optical path to an optical waveguide (320, 330) through an input optical member. Light traveling inside the optical waveguide (320, 330) may be guided toward a user's eyes through an output optical member.

일 실시예에 따르면, 디스플레이 모듈(314-1, 314-2)은 복수의 패널(또는 표시 영역)들을 포함할 수 있고, 복수의 패널들은 글래스(220, 230)에 위치할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(314-1, 314-2)의 적어도 일부는 투명 소자로 구성될 수 있고, 사용자가 디스플레이 모듈(314-1, 314-2)을 투과하여, 디스플레이 모듈(314-1, 314-2)의 후면의 실제 공간을 인지할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(314-1, 314-2)은 사용자에게 실제 현실 공간의 적어도 일부에 가상 객체(또는 가상 정보)가 덧붙여진 것으로 보이도록 투명 소자의 적어도 일부 영역에 가상 객체를 표시할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(314-1, 314-2)이 투명 마이크로 엘이디인 경우 글래스(220, 230) 내에 광도파로(320, 330) 구성은 생략될 수 있다.According to one embodiment, the display module (314-1, 314-2) may include a plurality of panels (or display areas), and the plurality of panels may be positioned on the glass (220, 230). According to one embodiment, at least a portion of the display module (314-1, 314-2) may be formed of a transparent element, and a user may perceive an actual space behind the display module (314-1, 314-2) by seeing through the display module (314-1, 314-2). According to one embodiment, the display module (314-1, 314-2) may display a virtual object on at least a portion of the transparent element so that the user may see that the virtual object (or virtual information) is added to at least a portion of the actual real space. According to one embodiment, when the display module (314-1, 314-2) is a transparent micro LED, the optical waveguide (320, 330) configuration within the glass (220, 230) may be omitted.

일 실시예에 따르면, 웨어러블 전자 장치(201)는 복수의 카메라들(예: 제1 카메라, 제2 카메라 및 제3 카메라)을 포함할 수 있다. 예를 들어, 제1 카메라(예: 도 2의 카메라 모듈(280))는 사용자의 시야각(FOV, field of view)에 대응되는 영상을 촬영하거나 및/또는 객체와의 거리를 측정하기 위한 촬영용 카메라(280)(예: RGB(red green blue) 카메라)일 수 있다. 제2 카메라는 사용자가 바라보는 시선의 방향을 확인하기 위한 시선 추적 카메라(eye tracking camera module)(312-1, 312-2)일 수 있다. 제3 카메라는 일정 공간을 인식하기 위한 인식용 카메라(gesture camera module)(311-1, 311-2)일 수 있다.According to one embodiment, the wearable electronic device (201) may include a plurality of cameras (e.g., a first camera, a second camera, and a third camera). For example, the first camera (e.g., the camera module (280) of FIG. 2) may be a camera (280) (e.g., a red green blue (RGB) camera) for capturing an image corresponding to a field of view (FOV) of a user and/or for measuring a distance to an object. The second camera may be an eye tracking camera (312-1, 312-2) for confirming a direction of a user's gaze. The third camera may be a recognition camera (gesture camera module) (311-1, 311-2) for recognizing a certain space.

일 실시예에 따라, 촬영용 카메라(280)는 웨어러블 전자 장치(201)의 전면 방향을 촬영할 수 있고, 시선 추적 카메라(312-1, 312-2)는 촬영용 카메라(280)의 촬영 방향과 반대되는 방향을 촬영할 수 있다. 예를 들어, 제1 시선 추적 카메라(312-1)는 사용자의 좌안을 부분적으로 촬영하고, 제2 시선 추적 카메라(312-2)는 사용자의 우안을 부분적으로 촬영할 수 있다. 일 실시예에 따르면, 웨어러블 전자 장치(201)는 촬영용 카메라(280)를 통해 획득한 실제 현실 공간과 관련된 영상 정보에 기반하여 AR 서비스와 관련된 가상 객체(또는 가상 정보)를 함께 표시할 수 있다. 일 실시예에 따르면, 웨어러블 전자 장치(201)는 사용자의 양안에 대응하여 배치된 디스플레이 모듈(예: 좌안에 대응되는 제1 디스플레이 모듈(314-1), 및/또는 우안에 대응되는 제2 디스플레이 모듈(314-2))을 기반으로 가상 객체를 표시할 수 있다. 일 실시예에 따르면, 웨어러블 전자 장치(201)는 미리 설정된 설정 정보(예: 해상도(resolution), 프레임 레이트(frame rate), 밝기, 및/또는 표시 영역)를 기반으로 가상 객체를 표시할 수 있다.According to one embodiment, the capturing camera (280) can capture a front direction of the wearable electronic device (201), and the gaze tracking cameras (312-1, 312-2) can capture a direction opposite to the capturing direction of the capturing camera (280). For example, the first gaze tracking camera (312-1) can partially capture the user's left eye, and the second gaze tracking camera (312-2) can partially capture the user's right eye. According to one embodiment, the wearable electronic device (201) can display a virtual object (or virtual information) related to an AR service together with image information related to an actual real space acquired through the capturing camera (280). According to one embodiment, the wearable electronic device (201) can display a virtual object based on display modules arranged to correspond to both eyes of the user (e.g., the first display module (314-1) corresponding to the left eye and/or the second display module (314-2) corresponding to the right eye). According to one embodiment, the wearable electronic device (201) may display a virtual object based on preset configuration information (e.g., resolution, frame rate, brightness, and/or display area).

일 실시예에 따르면, 촬영용 카메라(280)는 HR(high resolution) 카메라 및/또는 PV(photo video) 카메라와 같은 고해상도의 카메라를 포함할 수 있다. 예를 들어, 촬영용 카메라(280)는 오토 포커스 기능과 떨림 보정(OIS, optical image stabilization)과 같이 고화질의 영상을 획득하기 위해 활용될 수 있다. 촬영용 카메라(280)는 컬러(color) 카메라 이외에 GS(global shutter) 카메라 및 RS(rolling shutter) 카메라로 구현될 수도 있다.According to one embodiment, the camera for shooting (280) may include a high-resolution camera, such as a high-resolution (HR) camera and/or a photo video (PV) camera. For example, the camera for shooting (280) may be utilized to obtain high-quality images, such as with an auto-focus function and optical image stabilization (OIS). In addition to a color camera, the camera for shooting (280) may also be implemented with a global shutter (GS) camera and a rolling shutter (RS) camera.

일 실시예에 따르면, 시선 추적 카메라(312-1, 312-2)는 사용자의 시선 방향(예: 눈동자 움직임)을 감지할 수 있다. 예를 들어, 시선 추적 카메라(312-1, 312-2)는 사용자의 눈동자를 검출하여, 시선 방향을 추적할 수 있다. 일 실시예에서, 추적된 시선 방향은 가상 객체를 포함하는 가상 영상의 중심이 시선 방향에 대응하여 이동하는데 활용될 수 있다. 예를 들어, 시선 추적 카메라(312-1, 312-2)는 눈동자(pupil)를 검출하고 빠른 눈동자 움직임을 화면 끌림 없이 추적할 수 있도록 GS(global shutter) 카메라가 활용될 수 있으며, 각 시선 추적 카메라(312-1, 312-2)의 성능 및 규격이 실질적으로 동일할 수 있다.According to one embodiment, the gaze tracking camera (312-1, 312-2) can detect the gaze direction (e.g., eye movement) of the user. For example, the gaze tracking camera (312-1, 312-2) can detect the user's pupil and track the gaze direction. In one embodiment, the tracked gaze direction can be utilized to move the center of a virtual image including a virtual object in response to the gaze direction. For example, the gaze tracking camera (312-1, 312-2) can utilize a GS (global shutter) camera to detect the pupil and track rapid eye movement without screen tearing, and the performance and specifications of each gaze tracking camera (312-1, 312-2) can be substantially the same.

일 실시예에 따르면, 인식용 카메라(311-1, 311-2)는 미리 설정된 거리 이내(예: 일정 공간)에서의 사용자 제스처 및/또는 일정 공간을 감지할 수 있다. 일 실시예에 따르면, 인식용 카메라(311-1, 311-2)는 3DoF(degrees of freedom), 6DoF의 헤드 추적(head tracking), 핸드 검출 및/또는 핸드 추적(hand tracking)을 위해 사용될 수 있다. 예를 들어, 인식용 카메라(311-1, 311-2)는 6DoF를 위한 공간 인식, 뎁스(depth) 촬영을 통한 슬램(SLAM, simultaneous localization and mapping) 기능을 수행하는데 활용될 수 있다. 어떤 실시예에 따르면, 인식용 카메라(311-1, 311-2)는 사용자 제스처를 인식하기 위한 제스처 인식 기능을 위해 활용될 수 있다. 인식용 카메라(311-1, 311-2)는 GS를 포함하는 카메라를 포함할 수 있다. 예를 들어, 인식용 카메라(311-1, 311-2)는 빠른 손동작 및/또는 손가락의 미세한 움직임을 검출 및 추적하기 위해, RS(rolling shutter) 카메라와 같이 화면 끌림이 적은(또는 RS 현상이 감소될 수 있는) GS를 포함하는 카메라를 포함할 수 있다.According to one embodiment, the recognition camera (311-1, 311-2) can detect a user gesture and/or a certain space within a preset distance (e.g., a certain space). According to one embodiment, the recognition camera (311-1, 311-2) can be used for 3DoF (degrees of freedom), 6DoF head tracking, hand detection and/or hand tracking. For example, the recognition camera (311-1, 311-2) can be utilized to perform a space recognition for 6DoF, a simultaneous localization and mapping (SLAM) function through depth shooting. According to some embodiments, the recognition camera (311-1, 311-2) can be utilized for a gesture recognition function for recognizing a user gesture. The recognition camera (311-1, 311-2) can include a camera including a GS. For example, the recognition camera (311-1, 311-2) may include a camera including a GS with less screen drag (or in which the RS phenomenon can be reduced), such as a RS (rolling shutter) camera, to detect and track rapid hand movements and/or fine movements of fingers.

일 실시예에 따르면, 웨어러블 전자 장치(201)는 적어도 하나의 카메라(311-1, 311-2, 312-1, 312-2, 280)를 사용하여, 사용자의 좌안 및/또는 우안 중에서 주시안 및/또는 보조시안에 대응되는 눈을 감지할 수 있다. 예를 들어, 웨어러블 전자 장치(201)는 외부 객체 또는 가상 객체에 대한 사용자의 시선 방향에 기반하여, 주시안 및/또는 보조시안에 대응되는 눈을 감지할 수 있다.According to one embodiment, the wearable electronic device (201) can detect an eye corresponding to the dominant eye and/or the auxiliary eye among the left eye and/or the right eye of the user using at least one camera (311-1, 311-2, 312-1, 312-2, 280). For example, the wearable electronic device (201) can detect an eye corresponding to the dominant eye and/or the auxiliary eye based on a direction of the user's gaze with respect to an external object or a virtual object.

도 3에 예시된 웨어러블 전자 장치(201)에 포함되는 적어도 하나의 카메라(예: 촬영용 카메라(280), 시선 추적 카메라(312-1, 312-2) 및/또는 인식용 카메라(311-1, 311-2))의 개수 및 위치는 한정되지 않을 수 있다. 예를 들어, 웨어러블 전자 장치(201)의 형태(예: 모양 또는 크기)에 기반하여 적어도 하나의 카메라(예: 촬영용 카메라(280), 시선 추적 카메라(312-1, 312-2) 및/또는 인식용 카메라(311-1, 311-2))의 개수 및 위치는 다양하게 변경될 수 있다.The number and position of at least one camera (e.g., a camera for shooting (280), a gaze tracking camera (312-1, 312-2), and/or a camera for recognition (311-1, 311-2)) included in the wearable electronic device (201) illustrated in FIG. 3 may not be limited. For example, the number and position of at least one camera (e.g., a camera for shooting (280), a gaze tracking camera (312-1, 312-2), and/or a camera for recognition (311-1, 311-2)) may be variously changed based on the form (e.g., shape or size) of the wearable electronic device (201).

일 실시예에 따르면, 웨어러블 전자 장치(201)는 적어도 하나의 카메라(예: 촬영용 카메라(280), 시선 추적 카메라(312-1, 312-2) 및/또는 인식용 카메라(311-1, 311-2))의 정확도를 높이기 위한 적어도 하나의 조명 부재(또는 발광 장치(illumination LED))(예: 제1 조명 부재(342-1), 제2 조명 부재(342-2))를 포함할 수 있다. 예를 들어, 제1 조명 부재(342-1)는 사용자의 좌안에 대응하는 부분에 배치될 수 있고, 제2 조명 부재(342-2)는 사용자의 우안에 대응하는 부분에 배치될 수 있다.According to one embodiment, the wearable electronic device (201) may include at least one lighting member (or illumination LED) (e.g., a first lighting member (342-1), a second lighting member (342-2)) to increase the accuracy of at least one camera (e.g., a shooting camera (280), an eye-tracking camera (312-1, 312-2), and/or a recognition camera (311-1, 311-2)). For example, the first lighting member (342-1) may be positioned at a portion corresponding to the user's left eye, and the second lighting member (342-2) may be positioned at a portion corresponding to the user's right eye.

일 실시예에 따라, 조명 부재(342-1, 342-2)는 웨어러블 전자 장치(201)에 부착되는 위치에 따라 각각 다른 용도로 활용될 수 있다. 일 실시예에서, 조명 부재(342-1, 342-2)는 시선 추적 카메라(312-1, 312-2)로 사용자의 눈동자를 촬영할 때 정확도(예: 시선 게이즈(eye gaze) 검출의 용이)를 높이기 위한 보조 수단으로 사용될 수 있고, 적외선 파장의 광을 발생시키는 IR LED를 포함할 수 있다. 일 실시예에서, 조명 부재(342-1, 342-2)는 인식용 카메라(311-1, 311-2)로 사용자의 제스처를 촬영할 때 어두운 환경이나 여러 광원의 혼입 및 반사 빛 때문에 촬영하고자 하는 피사체 검출이 용이하지 않을 때 주변 밝기를 보충하는 보조 수단으로 사용될 수 있다.According to one embodiment, the lighting elements (342-1, 342-2) may be utilized for different purposes depending on the location where they are attached to the wearable electronic device (201). In one embodiment, the lighting elements (342-1, 342-2) may be used as an auxiliary means to increase accuracy (e.g., ease of eye gaze detection) when capturing a user's pupil with an eye tracking camera (312-1, 312-2), and may include an IR LED that generates light of an infrared wavelength. In one embodiment, the lighting elements (342-1, 342-2) may be used as an auxiliary means to supplement ambient brightness when it is difficult to detect a subject to be captured due to a dark environment or mixing and reflection of multiple light sources when capturing a user's gesture with a recognition camera (311-1, 311-2).

일 실시예에 따르면, 웨어러블 전자 장치(201)는 사용자의 음성 및 주변 소리를 수신하기 위한 마이크(예: 제1 마이크(341-1), 제2 마이크(341-2) 및 제3 마이크(341-3))를 포함할 수 있다.According to one embodiment, the wearable electronic device (201) may include a microphone (e.g., a first microphone (341-1), a second microphone (341-2), and a third microphone (341-3)) for receiving a user's voice and ambient sounds.

일 실시예에 따르면, 제1 지지 프레임(260)(또는 제1 하우징) 및/또는 제2 지지 프레임(270)(제2 하우징)은 인쇄 회로 기판(PCB, printed circuit board)(예: 제1 인쇄 회로 기판(331-1), 제2 인쇄 회로 기판(331-2)), 오디오 신호를 출력하기 위한 스피커(speaker)(예: 제1 스피커(332-1), 제2 스피커(332-2)), 배터리(예: 제1 배터리(333-1), 제2 배터리(333-2)), 및/또는 힌지부(예: 제1 힌지부(340-1), 제2 힌지부(340-2))를 포함할 수 있다.According to one embodiment, the first support frame (260) (or the first housing) and/or the second support frame (270) (the second housing) may include a printed circuit board (PCB) (e.g., a first printed circuit board (331-1), a second printed circuit board (331-2)), a speaker for outputting an audio signal (e.g., a first speaker (332-1), a second speaker (332-2)), a battery (e.g., a first battery (333-1), a second battery (333-2)), and/or a hinge part (e.g., a first hinge part (340-1), a second hinge part (340-2)).

일 실시예에 따라, 인쇄 회로 기판(331-1, 331-2)은 플렉서블 기판(예: FPCB, flexible PCB)을 포함할 수 있다. 인쇄 회로 기판(331-1, 331-2)은 웨어러블 전자 장치(201)의 각 구성 요소(예: 카메라, 디스플레이 모듈, 마이크, 및/또는 스피커)에 전기 신호를 전달할 수 있다.According to one embodiment, the printed circuit board (331-1, 331-2) may include a flexible board (e.g., FPCB, flexible PCB). The printed circuit board (331-1, 331-2) may transmit electrical signals to each component (e.g., a camera, a display module, a microphone, and/or a speaker) of the wearable electronic device (201).

일 실시예에 따라, 스피커(332-1, 332-2)는 사용자의 좌측 귀에 오디오 신호를 전달하기 위한 제1 스피커(332-1) 및 사용자의 우측 귀에 오디오 신호를 전달하기 위한 제2 스피커(332-2)를 포함할 수 있다.According to one embodiment, the speakers (332-1, 332-2) may include a first speaker (332-1) for transmitting an audio signal to the user's left ear and a second speaker (332-2) for transmitting an audio signal to the user's right ear.

일 실시예에 따라, 배터리(333-1, 333-2)는 전력 관리 모듈(예: 도 1의 전력 관리 모듈(188))을 통해, 인쇄 회로 기판(331-1, 331-2)에 전력을 공급할 수 있다. 일 실시예에 따르면, 웨어러블 전자 장치(201)는 제1 지지 프레임(260) 및 제2 지지 프레임(270)을 통해, 복수의 배터리들(333-1, 333-2)을 구비할 수 있고, 전력 관리 모듈을 통해, 인쇄 회로 기판(331-1, 331-2)에 전력을 공급할 수 있다. 예를 들어, 복수의 배터리들(333-1, 333-2)은 전력 관리 모듈과 전기적으로 연결될 수 있다.According to one embodiment, the batteries (333-1, 333-2) may supply power to the printed circuit board (331-1, 331-2) through a power management module (e.g., the power management module (188) of FIG. 1). According to one embodiment, the wearable electronic device (201) may have a plurality of batteries (333-1, 333-2) through the first support frame (260) and the second support frame (270), and may supply power to the printed circuit board (331-1, 331-2) through the power management module. For example, the plurality of batteries (333-1, 333-2) may be electrically connected to the power management module.

도시하지는 않았으나, 도 2 및 도 3의 예시와 같은 웨어러블 전자 장치(201)는 지정된 외부 장치(예: 케이스(case))(미도시)에 의해 수납될 수 있다. 일 실시예에 따라, 케이스는 웨어러블 전자 장치(201)를 단순히 보관하고 충전하는 기능을 포함할 수 있다. 어떤 실시예에 따르면, 케이스는 웨어러블 전자 장치(201)의 충전 및 보관 용도에 더하여, 카메라 및/또는 프로세서와 같은 구성 요소를 포함할 수 있고, 이러한 구성 요소를 이용하여 웨어러블 전자 장치(201)의 보조 연산 장치로 사용될 수도 있다. 예를 들어, 웨어러블 전자 장치(201)는 케이스에 수납 시에, 케이스와 통신(예: 유선 통신 및/또는 무선 통신)을 수행할 수 있고, 케이스는 호스트 디바이스(host device)(예: 스마트 폰)의 기능을 일부 수행할 수 있다.Although not illustrated, a wearable electronic device (201) such as the examples of FIGS. 2 and 3 may be stored by a designated external device (e.g., a case) (not illustrated). According to one embodiment, the case may include a function of simply storing and charging the wearable electronic device (201). According to some embodiments, in addition to the purpose of charging and storing the wearable electronic device (201), the case may include components such as a camera and/or a processor, and may be used as an auxiliary computing device of the wearable electronic device (201) by utilizing these components. For example, when the wearable electronic device (201) is stored in the case, the case may communicate with the case (e.g., wired communication and/or wireless communication), and the case may perform some functions of a host device (e.g., a smart phone).

일 실시예에 따르면, 웨어러블 전자 장치(201)는 단독 또는 적어도 하나의 다른 전자 장치(예: 호스트 디바이스(예: 전자 장치(101))와 연동하여, AR 서비스를 제공할 수 있다. 예를 들어, 웨어러블 전자 장치(201)는 호스트 디바이스(예: 테더드 전자 장치(예: 스마트 폰))에 연결되고, 호스트 디바이스를 통해 네트워크(예: 클라우드)에 연결하는 테더드(tethered) AR 방식으로 동작하여 AR 서비스를 제공할 수 있다. 어떤 실시예에 따르면, 웨어러블 전자 장치(201)는 호스트 디바이스(예: 전자 장치(101))와 연결 없이 단독(standalone)으로 네트워크(예: 클라우드)에 연결하는 방식으로 동작하여 AR 서비스를 제공할 수도 있다.According to one embodiment, the wearable electronic device (201) may provide an AR service by itself or in conjunction with at least one other electronic device (e.g., a host device (e.g., the electronic device (101)). For example, the wearable electronic device (201) may be connected to a host device (e.g., a tethered electronic device (e.g., a smart phone)) and may operate in a tethered AR manner to provide an AR service by connecting to a network (e.g., a cloud) through the host device. According to some embodiments, the wearable electronic device (201) may also operate in a standalone manner to provide an AR service by connecting to a network (e.g., a cloud) without being connected to a host device (e.g., the electronic device (101)).

도 4a는 일 실시예에 따른 전자 장치와 다른 전자 장치 간의 네트워크 환경을 도시한 도면이다.FIG. 4A is a diagram illustrating a network environment between an electronic device and another electronic device according to one embodiment.

도 4a를 참조하면, 일 실시예에 따른 제1 전자 장치(410)(예: 도 1의 전자 장치(101), 또는 도 2 또는 도 3의 웨어러블 전자 장치(201))는 제2 전자 장치(420)(또는 외부 전자 장치 또는 다른 전자 장치)(예: 도 1의 전자 장치(101), 또는 도 2 또는 도 3의 웨어러블 전자 장치(201))와 연결될 수 있다.Referring to FIG. 4A, a first electronic device (410) (e.g., the electronic device (101) of FIG. 1, or the wearable electronic device (201) of FIG. 2 or FIG. 3) according to one embodiment may be connected to a second electronic device (420) (or an external electronic device or another electronic device) (e.g., the electronic device (101) of FIG. 1, or the wearable electronic device (201) of FIG. 2 or FIG. 3).

일 실시예에 따르면, 제1 전자 장치(410)와 제2 전자 장치(420)는 유선으로 연결되거나 또는 무선으로 연결(예: 페어링)될 수 있다. 예를 들어, 제1 전자 장치(410)는 블루투스, 저전력 블루투스, 와이파이(WiFi), 와이파이 다이렉트(direct) 또는 UWB(ultra-wide band)와 같은 근거리 무선 통신(403)을 통해 제2 전자 장치(420)와 연결(또는 페어링)될 수 있다.According to one embodiment, the first electronic device (410) and the second electronic device (420) may be connected by wire or connected (e.g., paired) wirelessly. For example, the first electronic device (410) may be connected (or paired) with the second electronic device (420) via short-range wireless communication (403) such as Bluetooth, low-power Bluetooth, WiFi, WiFi direct, or ultra-wide band (UWB).

일 실시예에 따라, 제1 전자 장치(410)와 제2 전자 장치(420)는 증강 현실(AR, augmented reality), 혼합 현실(MR, mixed reality), 가상 현실(VR, virtual reality), 및/또는 확장 현실(XR, extended reality) 기능 관련 동작을 제공하는 다양한 형태의 장치를 포함할 수 있다. 일 실시예에 따라, 제1 전자 장치(410) 및/또는 제2 전자 장치(420)는 AR 글래스(glass), MR 글래스, 스마트 글래스(smart glasses), 헤드 마운트 디스플레이(HMD, head mounted display), VST 기기, 스마트 폰, 태블릿(tablet) PC(personal computer), 노트북(notebook), 및/또는 디스플레이 장치(예: 모니터 또는 TV)를 포함할 수 있다.According to one embodiment, the first electronic device (410) and the second electronic device (420) may include various forms of devices that provide operations related to augmented reality (AR), mixed reality (MR), virtual reality (VR), and/or extended reality (XR) functions. According to one embodiment, the first electronic device (410) and/or the second electronic device (420) may include AR glasses, MR glasses, smart glasses, a head mounted display (HMD), a VST device, a smart phone, a tablet PC (personal computer), a notebook, and/or a display device (e.g., a monitor or a TV).

일 실시예에 따르면, 제1 전자 장치(410)와 제2 전자 장치(420)는 사용자 전방의 실세계(real world)에 대응하는 영상을 포함하는 가상 환경(또는 실행 화면)을 디스플레이(예: 사용자의 양안에 각각 대응하는 디스플레이)를 통해 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)와 제2 전자 장치(420)는 실세계를 표시하면서 하나 또는 그 이상의 가상 객체를 표시함으로써 증강 현실(또는 혼합 현실 또는 가상 현실) 관련 기능(또는 동작)(이하, ‘AR 서비스’라 한다)을 제공할 수 있다.According to one embodiment, the first electronic device (410) and the second electronic device (420) may display a virtual environment (or execution screen) including an image corresponding to the real world in front of the user through displays (e.g., displays corresponding to each of the user's two eyes). According to one embodiment, the first electronic device (410) and the second electronic device (420) may provide an augmented reality (or mixed reality or virtual reality) related function (or operation) (hereinafter, referred to as 'AR service') by displaying one or more virtual objects while displaying the real world.

일 실시예에 따르면, 전자 장치(101)(예: 제1 전자 장치(410) 및/또는 제2 전자 장치(420))는 AR 서비스를 위해 관련 데이터(예: AR 영상)를 직접 생성하거나(예: 저장 또는 처리된 데이터에 기반하여 생성) 또는 외부 장치(예: 스마트 폰과 같은 컴퓨팅 장치 또는 서버(예: 도 1의 서버(108))로부터 획득하여, 디스플레이(예: 도 1의 디스플레이 모듈(160))을 통해 표시할 수 있다. 예를 들면, 전자 장치(101)는 사용자의 신체(예: 얼굴)에 착용 가능하며, 현실 세계 위에 다양한 디지털 컨텐츠(예: AR 이미지)를 겹쳐서 디스플레이 모듈(160)을 통해 하나의 영상(예: AR 화면)으로 표시할 수 있다.According to one embodiment, the electronic device (101) (e.g., the first electronic device (410) and/or the second electronic device (420)) may directly generate (e.g., generate based on stored or processed data) or obtain (e.g., acquire) related data (e.g., AR images) for AR service from an external device (e.g., a computing device such as a smart phone or a server (e.g., the server (108) of FIG. 1)) and display the data through a display (e.g., the display module (160) of FIG. 1). For example, the electronic device (101) may be worn on a user's body (e.g., the face) and may display various digital contents (e.g., AR images) overlaid on the real world as a single image (e.g., AR screen) through the display module (160).

일 실시예에 따르면, 전자 장치(101)는 다른 전자 장치와 지정된 통신(예: 유선 통신 또는 무선 통신)으로 연결 시, 전자 장치(101)의 디스플레이를 통해 표시 중인 컨텐츠(또는 컨텐츠 뷰(contents view))를 다른 전자 장치와 공유할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 다른 전자 장치와 통신 연결 시, 전자 장치(101)의 카메라(예: 도 1의 카메라 모듈(180))를 통해 촬영된 영상 정보, 사용자의 시선 정보(예: FOV(field of view) 및/또는 AOV(angle of view)), 전자 장치(101)의 위치 정보(예: 상대 좌표 및/또는 절대 좌표), 공유 컨텐츠와 관련된 공유 정보(예: 표시 정보(예: 레이아웃 정보), 공유 영역 정보(예: 좌표 정보 또는 배치(또는 방향) 정보)), 및/또는 공유 컨텐츠의 제어와 관련된 제어 정보(예: 공유 컨텐츠에 기반한 사용자 입력 정보)를 다른 전자 장치로 주기적으로 전송할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 전자 장치(101)의 상태 변화(예: 위치 또는 방향의 변화)가 발생되는 경우 상태 변화에 관련된 상태 정보를 다른 전자 장치로 전송할 수 있다. 예를 들어, 제1 전자 장치(410)와 제2 전자 장치(420)는 서로 연결 시에 영상 정보(예: 공유 컨텐츠), 공유 정보, 시선 정보, 장치 정보, 센싱 정보, 기능 정보 및/또는 위치 정보와 같은 적어도 하나의 정보를 제공(예: 전송)할 수 있다. 일 실시예에 따라, 제1 전자 장치(410)와 제2 전자 장치(420) 간에 컨텐츠를 공유하고, 컨텐츠 공유 시에 송수신하는 다양한 정보와 관련하여 후술하는 도면들을 참조하여 설명된다.According to one embodiment, when the electronic device (101) is connected to another electronic device through a designated communication (e.g., wired communication or wireless communication), the electronic device (101) may share content (or content view) being displayed through the display of the electronic device (101) with the other electronic device. According to one embodiment, when the electronic device (101) is connected to a communication connection with the other electronic device, the electronic device (101) may periodically transmit image information captured through a camera of the electronic device (e.g., the camera module (180) of FIG. 1), user's line of sight information (e.g., field of view (FOV) and/or angle of view (AOV)), position information of the electronic device (101) (e.g., relative coordinates and/or absolute coordinates), shared information related to shared content (e.g., display information (e.g., layout information), shared area information (e.g., coordinate information or arrangement (or direction) information)), and/or control information related to control of the shared content (e.g., user input information based on the shared content) to the other electronic device. According to one embodiment, when a state change (e.g., a change in position or direction) of the electronic device (101) occurs, the electronic device (101) may transmit state information related to the state change to another electronic device. For example, when the first electronic device (410) and the second electronic device (420) are connected to each other, the first electronic device (410) and the second electronic device (420) may provide (e.g., transmit) at least one piece of information, such as image information (e.g., shared content), shared information, gaze information, device information, sensing information, function information, and/or location information. According to one embodiment, sharing content between the first electronic device (410) and the second electronic device (420), and various pieces of information transmitted and received when sharing content will be described with reference to the drawings described below.

도 4b는 일 실시예에 따른 전자 장치에서 가상 환경을 표시하는 예를 도시하는 도면이다.FIG. 4b is a diagram illustrating an example of displaying a virtual environment in an electronic device according to one embodiment.

일 실시예에서, 도 4b는 사용자가 전자 장치(101)를 착용하고, 전자 장치(101)의 디스플레이(예: 도 1의 디스플레이 모듈(160))을 통해 제공되는 AR 화면을 보고 있는 상태를 나타낼 수 있다. 예를 들면, 도 4b는 사용자가 전자 장치(101)의 AR 화면을 통해 현실 공간(400)(또는 가상 환경)(예: 사용자 전방의 실세계(real world))의 적어도 일부에 겹쳐진 컨텐츠(430)(또는 가상 객체 또는 증강 현실 이미지)를 보고 있는 상태를 나타낼 수 있다. 일 실시예에 따라, 컨텐츠(430)는 사용자의 시야각(FOV)(440) 상에서 보여지는 가상 객체를 포함할 수 있다. 일 실시예에서, 컨텐츠(430)(또는 증강 현실 이미지)는 전자 장치(101)를 착용한 사용자가 위치한 실제 현실 공간(400)에 적어도 하나의 어플리케이션에 대응하는 그래픽 데이터가 가상 객체로서 제공되는 것일 수 있다.In one embodiment, FIG. 4B may represent a state in which a user wears an electronic device (101) and views an AR screen provided through a display of the electronic device (101) (e.g., a display module (160) of FIG. 1). For example, FIG. 4B may represent a state in which a user views content (430) (or a virtual object or an augmented reality image) superimposed on at least a part of a real space (400) (or a virtual environment) (e.g., a real world in front of the user) through the AR screen of the electronic device (101). According to one embodiment, the content (430) may include a virtual object shown on a field of view (FOV) (440) of the user. In one embodiment, the content (430) (or the augmented reality image) may be graphic data corresponding to at least one application provided as a virtual object in a real real space (400) in which a user wearing the electronic device (101) is located.

도 4b를 참조하면, 전자 장치(101)는 사용자에 의해 착용되고, 전자 장치(101)의 디스플레이 모듈(160)을 통해 현실 공간(400)의 적어도 일부에 하나 이상의 컨텐츠(430)(또는 컨텐츠에 관련된 가상 객체(또는 정보))를 표시하고 있는 상황일 수 있다. 예를 들어, 전자 장치(101)는 사용자의 시야각(440)에 대응하는 실제 현실 공간(400)에 적어도 하나의 가상 정보를 겹쳐서 사용자에게 제공할 수 있다. 일 실시예에서, 컨텐츠(430)를 표시하고 있는 상황은, 예를 들면, 실제 현실 공간(400)의 실제 객체에 대해 사용자가 제스처(gesture) 입력 및/또는 시선 게이즈(eye gaze)를 수행한 경우, 검색 기능을 수행할 수 있는 어플리케이션(예: 브라우저, 쇼핑 앱, 및/또는 SNS(social network service))의 실행 화면을 표시하는 상황, 미디어 컨텐츠를 재생하기 위한 어플리케이션(예: 플레이어)의 실행 화면(예: 동영상 재생 화면 또는 이미지 재생 화면)을 표시하는 상황, 및/또는 가상 공간 상에서 사용자에 의한 지정된 시뮬레이션 실행 상황(예: 협업 툴 사용 상황 또는 게임 플레이 상황)을 포함할 수 있다. 예를 들어, 컨텐츠(430)는 제1 어플리케이션에 대응하는 가상 정보(또는 가상 객체 또는 그래픽 이미지), 제2 어플리케이션에 대응하는 가상 정보, 및/또는 제3 어플리케이션에 대응하는 가상 정보와 같이, 각각 대응하는 어플리케이션에 의해 제공 가능한 정보를 포함할 수 있다.Referring to FIG. 4B, the electronic device (101) may be worn by a user and may display one or more contents (430) (or virtual objects (or information) related to the contents) on at least a part of a real space (400) through a display module (160) of the electronic device (101). For example, the electronic device (101) may provide at least one virtual piece of information to the user by overlapping the real space (400) corresponding to the user's field of view (440). In one embodiment, a situation in which content (430) is displayed may include, for example, a situation in which a user performs a gesture input and/or an eye gaze on a real object in a real space (400), a situation in which an execution screen of an application (e.g., a browser, a shopping app, and/or a social network service (SNS)) capable of performing a search function is displayed, a situation in which an execution screen of an application (e.g., a player) for playing media content is displayed (e.g., a video playback screen or an image playback screen), and/or a situation in which a user executes a specified simulation in a virtual space (e.g., a collaboration tool usage situation or a game play situation). For example, the content (430) may include information that can be provided by each corresponding application, such as virtual information (or a virtual object or a graphic image) corresponding to a first application, virtual information corresponding to a second application, and/or virtual information corresponding to a third application.

일 실시예에 따르면, 전자 장치(101)는 컨텐츠(430)가 제공된 상태에서 사용자의 시선(440)을 추적하여 사용자의 시선(440)에 대응하는 적어도 하나의 현실 공간(400)의 실제 객체에 관련된 가상 정보 또는 사용자에 의해 실행 요청된 어플리케이션의 실행 화면을 디스플레이 모듈(160)을 통해 AR 화면(또는 가상 환경 또는 실행 화면)으로 제공할 수 있다. 예를 들면, 사용자는 전자 장치(101)를 이용하여 실제 현실 공간(400)에서 다양한 실제 객체에 대응하는 컨텐츠(430)를 사용자의 시선(440) 이동에 따라 AR 서비스를 이용할 수 있다.According to one embodiment, the electronic device (101) may track the user's gaze (440) while the content (430) is provided, and provide virtual information related to at least one real object in the real space (400) corresponding to the user's gaze (440) or an execution screen of an application requested to be executed by the user as an AR screen (or virtual environment or execution screen) through the display module (160). For example, the user may use the electronic device (101) to use an AR service by displaying content (430) corresponding to various real objects in the real space (400) according to the movement of the user's gaze (440).

도 5는 일 실시예에 따른 전자 장치의 구성을 개략적으로 도시하는 도면이다.FIG. 5 is a diagram schematically illustrating the configuration of an electronic device according to one embodiment.

일 실시예에 따라, 도 5에서는 전자 장치(101)가 안경 형태의 웨어러블 전자 장치(예: 도 2 또는 도 3의 웨어러블 전자 장치(201))인 예를 도시하고 있으나, 이에 제한하는 것은 아니다. 일 실시예에 따르면, 전자 장치(101)는 도 1 내지 도 3을 참조한 설명 부분에서 설명한 바와 같은 전자 장치(101) 및 웨어러블 전자 장치(201)의 구성 요소를 포함할 수 있다. 이하에서는, 웨어러블 전자 장치라는 용어는 도 1의 전자 장치(101) 및 도 2 또는 도 3의 웨어러블 전자 장치(201)를 포함하는 용어로 사용될 수 있다.According to one embodiment, FIG. 5 illustrates an example in which the electronic device (101) is a wearable electronic device in the form of glasses (e.g., the wearable electronic device (201) of FIG. 2 or FIG. 3), but is not limited thereto. According to one embodiment, the electronic device (101) may include components of the electronic device (101) and the wearable electronic device (201) as described in the description with reference to FIGS. 1 to 3. Hereinafter, the term wearable electronic device may be used as a term including the electronic device (101) of FIG. 1 and the wearable electronic device (201) of FIG. 2 or FIG. 3.

도 5를 참조하면, 전자 장치(101)(또는 웨어러블 전자 장치(201))는 프로세서(120), 메모리(130), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 안테나 모듈(197) 및/또는 충전 안테나 모듈(540)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 도 1을 참조한 설명 부분에서 설명한 바와 같은 전자 장치(101)의 구성 요소의 전부 또는 적어도 일부를 포함할 수 있다. 예를 들어, 본 문서의 다양한 실시예에서는 도시된 구성 중 일부가 생략 또는 치환될 수도 있다. 전자 장치(101)는 도 1의 전자 장치(101)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. 도시된(또는 도시되지 않은) 전자 장치(101)의 각 구성들 중 적어도 일부는 상호 작동적으로(operatively), 기능적으로(functionally) 및/또는 전기적으로(electrically) 연결될 수 있다.Referring to FIG. 5, the electronic device (101) (or wearable electronic device (201)) may include a processor (120), a memory (130), a display module (160), an audio module (170), a sensor module (176), a camera module (180), a power management module (188), a battery (189), a communication module (190), an antenna module (197), and/or a charging antenna module (540). According to one embodiment, the electronic device (101) may include all or at least a part of the components of the electronic device (101) as described in the description with reference to FIG. 1. For example, in various embodiments of the present document, some of the illustrated components may be omitted or replaced. The electronic device (101) may include at least a part of the configuration and/or functions of the electronic device (101) of FIG. 1. At least some of the components of the illustrated (or not illustrated) electronic device (101) may be operatively, functionally and/or electrically connected to each other.

일 실시예에 따르면, 전자 장치(101)는 연결 단자(530)(예: USB TYPE-C)를 통해, 외부 전자 장치(미도시)와 연결될 수 있다. 예를 들어, 전자 장치(101)의 전력 관리 모듈(188)은 연결 단자(530)를 통해 외부 전자 장치로부터 전력을 수신하여 배터리(189)를 충전할 수 있다. 예를 들어, 전자 장치(101)의 프로세서(120)는 연결 단자(530)를 통해 외부 전자 장치와 전력선 통신을 수행할 수 있다. 예를 들어, 전자 장치(101)의 전력 관리 모듈(188)은 충전 안테나 모듈(540)을 통해 외부 전자 장치로부터 무선으로 전력을 수신하여 배터리(189)를 충전할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 메인 프레임(또는 본체부)(예: 도 2 또는 도 3의 메인 프레임(240))과 지지 프레임(또는 다리 부재)(예: 도 2 또는 도 3의 제1 지지 프레임(260), 및/또는 제2 지지 프레임(270))으로 구성될 수 있다. 일 실시예에 따르면, 전자 장치(101)의 구성 요소들은 메인 프레임(240) 및/또는 지지 프레임(260, 270)에 배치될 수 있다.According to one embodiment, the electronic device (101) may be connected to an external electronic device (not shown) via a connection terminal (530) (e.g., USB TYPE-C). For example, the power management module (188) of the electronic device (101) may receive power from the external electronic device via the connection terminal (530) and charge the battery (189). For example, the processor (120) of the electronic device (101) may perform power line communication with the external electronic device via the connection terminal (530). For example, the power management module (188) of the electronic device (101) may receive power wirelessly from the external electronic device via the charging antenna module (540) and charge the battery (189). According to one embodiment, the electronic device (101) may be composed of a main frame (or body) (e.g., the main frame (240) of FIG. 2 or FIG. 3) and a support frame (or leg member) (e.g., the first support frame (260) and/or the second support frame (270) of FIG. 2 or FIG. 3). According to one embodiment, components of the electronic device (101) may be arranged on the main frame (240) and/or the support frames (260, 270).

일 실시예에 따르면, 메모리(130)는 도 1의 메모리(130)의 구성 및/또는 기능 중 적어도 일부를 포함하고, 소프트웨어(예: 도 1의 프로그램(140))을 저장할 수 있다. 메모리(130)는 다양한 어플리케이션(예: 도 1의 어플리케이션(146)), 및 AR 서비스를 지원하는 프로그램 모듈을 저장할 수 있다.According to one embodiment, the memory (130) includes at least a portion of the configuration and/or functions of the memory (130) of FIG. 1, and may store software (e.g., the program (140) of FIG. 1). The memory (130) may store various applications (e.g., the application (146) of FIG. 1), and program modules that support AR services.

일 실시예에 따르면, 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성 요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 도 1의 프로그램(140)) 및, 이와 관련된 명령(command)에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다.According to one embodiment, the memory (130) may store various data used by at least one component (e.g., the processor (120) or the sensor module (176)) of the electronic device (101). The data may include, for example, software (e.g., the program (140) of FIG. 1) and input data or output data for commands related thereto.

일 실시예에 따르면, 메모리(130)는, 휘발성 메모리(예: 도 1의 휘발성 메모리(132)) 및/또는 비휘발성 메모리(예: 도 1의 비휘발성 메모리(134))를 포함할 수 있다. 일 실시예에 따르면, 메모리(130)는 프로세서(120)로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터가 프로세서(120)에 의해 처리된 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다.According to one embodiment, the memory (130) may include volatile memory (e.g., volatile memory (132) of FIG. 1) and/or nonvolatile memory (e.g., nonvolatile memory (134) of FIG. 1). According to one embodiment, the memory (130) may store a command or data received from the processor (120) in the volatile memory (132), and store result data processed by the processor (120) of the command or data stored in the volatile memory (132) in the nonvolatile memory (134).

일 실시예에서, 데이터는, 전자 장치(101)와 연결(또는 페어링)이 완료된 외부 전자 장치(예: 웨어러블 전자 장치)에 관련된 페어링 정보(또는 데이터), 전자 장치(101)의 포지션 정보(position information)(또는 포지션 데이터), 외부 전자 장치의 장치 정보, 및/또는 외부 전자 장치의 포지션 정보를 포함할 수 있다. 일 실시예에서, 데이터는, 전자 장치(101)가 외부 전자 장치에 시각적 정보(예: 공유 컨텐츠)를 제공(예: 전송 또는 공유)하고, 외부 전자 장치의 디스플레이를 통해 시각적 정보를 표시하도록 제어하는 것에 관련된 다양한 설정에 관한 정보를 포함할 수 있다.In one embodiment, the data may include pairing information (or data) related to an external electronic device (e.g., a wearable electronic device) that has been connected (or paired) with the electronic device (101), position information (or position data) of the electronic device (101), device information of the external electronic device, and/or position information of the external electronic device. In one embodiment, the data may include information regarding various settings related to controlling the electronic device (101) to provide (e.g., transmit or share) visual information (e.g., shared content) to the external electronic device and to display the visual information through a display of the external electronic device.

일 실시예에서, 데이터는, 사용자와 상호작용으로 사용자의 학습에 기반하여 획득하는 다양한 학습 데이터 및/또는 파라미터(parameters)를 포함할 수 있다. 일 실시예에서, 데이터는, 웨어러블 전자 장치(200)가 사용자에 의해 착용되는 상태에 관련된 포지션 정보를 학습하는 동작을 지원하기 위한 다양한 스키마(schema)(또는 알고리즘(algorithm), 모델(model), 네트워크(network) 또는 함수(function))를 포함할 수 있다.In one embodiment, the data may include various learning data and/or parameters obtained based on the user's learning through interaction with the user. In one embodiment, the data may include various schemas (or algorithms, models, networks, or functions) for supporting the operation of learning position information related to the state in which the wearable electronic device (200) is worn by the user.

예를 들어, 전자 장치(101)에서 학습에 관련된 동작을 지원하기 위한 스키마는, 뉴럴 네트워크(neural network)를 포함할 수 있다. 일 실시예에서, 뉴럴 네트워크는 ANN(artificial neural network), CNN(convolution neural network), R-CNN(region with convolution neural network), RPN(region proposal network), RNN(recurrent neural network), S-DNN(stacking-based deep neural network), S-SDNN(state-space dynamic neural network), Deconvolution Network, DBN(deep belief network), RBM(restricted boltzman machine), LSTM(long short-term memory) network, classification network, plain residual network, dense network, hierarchical pyramid network, 및/또는 fully convolutional network 중 적어도 하나에 기초한 뉴럴 네트워크 모델을 포함할 수 있다. 일 실시예에 따라, 뉴럴 네트워크 모델의 종류는 전술한 예에 제한하지 않는다.For example, a scheme for supporting operations related to learning in an electronic device (101) may include a neural network. In one embodiment, the neural network may include a neural network model based on at least one of an artificial neural network (ANN), a convolution neural network (CNN), a region with convolution neural network (R-CNN), a region proposal network (RPN), a recurrent neural network (RNN), a stacking-based deep neural network (S-DNN), a state-space dynamic neural network (S-SDNN), a deconvolution network, a deep belief network (DBN), a restricted Boltzman machine (RBM), a long short-term memory (LSTM) network, a classification network, a plain residual network, a dense network, a hierarchical pyramid network, and/or a fully convolutional network. According to one embodiment, the type of the neural network model is not limited to the examples described above.

메모리(130)는, 실행 시에, 프로세서(120)가 동작하도록 하는 인스트럭션들(instructions)을 저장할 수 있다. 인스트럭션들은 메모리(130) 상에 소프트웨어(예: 도 1의 프로그램(140))로서 저장될 수 있고, 프로세서(120)에 의해 실행 가능할 수 있다. 예를 들어, 인스트럭션들은 프로세서(120)에 의해 인식될 수 있는 산술 및 논리 연산, 데이터 이동, 및/또는 입출력과 같은 제어 명령을 포함할 수 있다. 일 실시예에 따라, 소프트웨어는 전자 장치(101)에서 다양한 기능(또는 서비스)(예: AR 서비스, 무선 통신 기능, 공유 기능, 컨텐츠 공유 기반 협업(또는 공동 작업) 기능, 및/또는 게임 기능)를 제공할 수 있는 다양한 어플리케이션(예: 도 1의 어플리케이션(146))을 포함할 수 있다.The memory (130) may store instructions that, when executed, cause the processor (120) to operate. The instructions may be stored as software (e.g., the program (140) of FIG. 1) on the memory (130) and may be executable by the processor (120). For example, the instructions may include control commands such as arithmetic and logical operations, data movement, and/or input/output that may be recognized by the processor (120). According to one embodiment, the software may include various applications (e.g., the application (146) of FIG. 1) that may provide various functions (or services) (e.g., AR service, wireless communication function, sharing function, content sharing-based collaboration (or joint work) function, and/or game function) in the electronic device (101).

디스플레이 모듈(160)(또는 디스플레이)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)의 디스플레이 모듈(160)은 적어도 하나의 글래스(예: 도 2 또는 도 3의 제1 글래스(220) 및/또는 제2 글래스(230))를 포함할 수 있다. 일 실시예에 따르면, 제1 글래스(220)는 제1 디스플레이 모듈(551)의 적어도 일부를 포함하고, 제2 글래스(230)는 제2 디스플레이 모듈(553)의 적어도 일부를 포함할 수 있다. 예를 들어, 제1 디스플레이 모듈(551) 및/또는 제2 디스플레이 모듈(553)은 각각 디스플레이 패널을 포함할 수 있다. 디스플레이 패널은 사용자가 디스플레이 모듈(160)을 통해 실제 공간을 인지할 수 있도록 투명 소자로 구성될 수 있다. 디스플레이 모듈(160)은 전자 장치(101)를 착용한 사용자가 실제 공간에 가상 객체가 덧붙여진 것으로 보여지도록 디스플레이 패널의 적어도 일부에 적어도 하나의 가상 객체를 표시할 수 있다.The display module (160) (or display) can visually provide information to the outside (e.g., a user) of the electronic device (101). The display module (160) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device. According to one embodiment, the display module (160) of the electronic device (101) can include at least one glass (e.g., the first glass (220) and/or the second glass (230) of FIG. 2 or FIG. 3). According to one embodiment, the first glass (220) can include at least a portion of the first display module (551), and the second glass (230) can include at least a portion of the second display module (553). For example, the first display module (551) and/or the second display module (553) can each include a display panel. The display panel can be configured as a transparent element so that the user can perceive an actual space through the display module (160). The display module (160) can display at least one virtual object on at least a portion of the display panel so that a user wearing the electronic device (101) sees the virtual object as being added to a real space.

예를 들어, 사용자의 시야각은 사용자가 사물을 인식할 수 있는 각도 및/또는 범위를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 사용자의 양안 중 좌안에 대응되는 제1 디스플레이 모듈(551) 및/또는 우안에 대응되는 제2 디스플레이 모듈(553)을 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 디스플레이 모듈(160)의 성능과 관련된 설정 정보(예: 해상도(resolution), 프레임 레이트(frame rate), 표시 영역의 크기, 및/또는 선명도(sharpness))를 메모리(130)로부터 로딩할 수 있고, 상기 설정 정보를 기반으로 디스플레이 모듈(160)의 성능을 조정할 수 있다.For example, the user's field of view may include an angle and/or range at which the user can recognize an object. According to one embodiment, the display module (160) may include a first display module (551) corresponding to the left eye of the user and/or a second display module (553) corresponding to the right eye. According to one embodiment, the processor (120) may load setting information (e.g., resolution, frame rate, size of the display area, and/or sharpness) related to the performance of the display module (160) from the memory (130), and adjust the performance of the display module (160) based on the setting information.

일 실시예에 따르면, 디스플레이 모듈(160)에 포함된 각각의 디스플레이 패널은 개별적으로 설정 정보가 결정될 수 있다. 예를 들어, 좌안에 대응되는 제1 디스플레이 패널은 제1 설정 정보를 기반으로 설정될 수 있고, 우안에 대응되는 제2 디스플레이 패널은 제2 설정 정보를 기반으로 설정될 수 있다. 일 실시예에 따르면, 설정 정보(예: 제1 설정 정보 및/또는 제2 설정 정보)는 디스플레이 모듈(160)에 포함된 하나의 디스플레이 패널의 적어도 일부를 다르게 설정할 수 있다. 예를 들어, 전자 장치(101)는 디스플레이 모듈(160)에 대한 해상도(resolution), 프레임 레이트(frame rate), 및/또는 선명도(sharpness) 중 적어도 하나를 다르게 설정할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 디스플레이 모듈(160)의 설정을 적어도 부분적으로 변경함으로써, 소모 전력을 줄일 수 있다.According to one embodiment, each display panel included in the display module (160) may have individually determined setting information. For example, a first display panel corresponding to the left eye may be set based on first setting information, and a second display panel corresponding to the right eye may be set based on second setting information. According to one embodiment, setting information (e.g., first setting information and/or second setting information) may set at least a portion of one display panel included in the display module (160) differently. For example, the electronic device (101) may set at least one of a resolution, a frame rate, and/or sharpness for the display module (160) differently. According to one embodiment, the electronic device (101) may reduce power consumption by at least partially changing the setting of the display module (160).

오디오 모듈(170)은 프로세서(120)의 제어에 기반하여, 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은 도 3의 스피커(332-1, 332-2) 및/또는 도 3의 마이크(예: 제1 마이크(341-1), 제2 마이크(341-2) 및 제3 마이크(341-3))를 포함할 수 있다.The audio module (170) may convert sound into an electric signal or, conversely, convert an electric signal into sound based on the control of the processor (120). According to one embodiment, the audio module (170) may include a speaker (332-1, 332-2) of FIG. 3 and/or a microphone (e.g., a first microphone (341-1), a second microphone (341-2), and a third microphone (341-3)) of FIG. 3.

센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 전자 장치(101)의 센서 모듈(176)은 근접 센서(521), 조도 센서(522), 및/또는 자이로 센서(523)를 포함할 수 있다.The sensor module (176) can detect the operating status (e.g., power or temperature) of the electronic device (101) or the external environmental status (e.g., user status) and generate an electric signal or data value corresponding to the detected status. According to one embodiment, the sensor module (176) of the electronic device (101) can include a proximity sensor (521), a light sensor (522), and/or a gyro sensor (523).

일 실시예에 따르면, 근접 센서(521)는 전자 장치(101)에 인접하는 객체를 감지할 수 있다.In one embodiment, the proximity sensor (521) can detect an object adjacent to the electronic device (101).

일 실시예에 따르면, 조도 센서(522)는 전자 장치(101) 주변의 밝기 정도를 측정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 조도 센서(522)를 사용하여 전자 장치(101) 주변의 밝기 정도를 확인하고, 상기 밝기 정도를 기반으로 디스플레이 모듈(160)의 밝기 관련 설정 정보를 변경할 수 있다. 예를 들어, 주변의 밝기가 기 설정된 밝기보다 더 밝으면, 프로세서(120)는 사용자의 시인성이 높아지도록 디스플레이 모듈(160)의 밝기 정도를 보다 높게 설정할 수 있다.According to one embodiment, the light sensor (522) can measure the brightness level around the electronic device (101). According to one embodiment, the processor (120) can check the brightness level around the electronic device (101) using the light sensor (522) and change the brightness-related setting information of the display module (160) based on the brightness level. For example, if the brightness of the surroundings is brighter than the preset brightness, the processor (120) can set the brightness level of the display module (160) higher so as to increase the user's visibility.

일 실시예에 따르면, 자이로 센서(523)는 전자 장치(101)의 자세 및 위치를 감지할 수 있다. 예를 들어, 자이로 센서(523)는 전자 장치(101)가 사용자의 머리에 올바르게 착용되었는지 여부를 감지할 수 있다. 예를 들어, 자이로 센서(523)는 전자 장치(101) 또는 전자 장치(101)를 착용한 사용자의 움직임을 감지할 수 있다. 예를 들어, 자이로 센서(523)는 전자 장치(101)의 지지 프레임(예: 도 2 또는 도 3의 제1 지지 프레임(260), 및/또는 제2 지지 프레임(270))의 움직임을 감지할 수 있다.In one embodiment, the gyro sensor (523) can detect the posture and position of the electronic device (101). For example, the gyro sensor (523) can detect whether the electronic device (101) is properly worn on the user's head. For example, the gyro sensor (523) can detect movement of the electronic device (101) or a user wearing the electronic device (101). For example, the gyro sensor (523) can detect movement of a support frame (e.g., the first support frame (260) of FIG. 2 or FIG. 3, and/or the second support frame (270)) of the electronic device (101).

일 실시예에 따르면, 전자 장치(101)의 센서 모듈(176)은 가속도 센서 및/또는 홀 센서를 포함할 수 있다. 일 실시예에 따르면, 가속도 센서는, 전자 장치(101)의 지지 프레임(예: 도 2 또는 도 3의 제1 지지 프레임(260), 및/또는 제2 지지 프레임(270))의 움직임을 감지할 수 있다. 일 실시예에 따르면, 홀 센서는 자기장의 변화를 감지하여, 전자 장치(101)의 지지 프레임(예: 도 2 또는 도 3의 제1 지지 프레임(260), 및/또는 제2 지지 프레임(270))의 움직임을 감지할 수 있다.According to one embodiment, the sensor module (176) of the electronic device (101) may include an acceleration sensor and/or a Hall sensor. According to one embodiment, the acceleration sensor may detect a movement of a support frame (e.g., the first support frame (260) of FIG. 2 or FIG. 3, and/or the second support frame (270)) of the electronic device (101). According to one embodiment, the Hall sensor may detect a change in a magnetic field to detect a movement of the support frame (e.g., the first support frame (260) of FIG. 2 or FIG. 3, and/or the second support frame (270)) of the electronic device (101).

통신 모듈(190)(또는 통신 회로)은 전자 장치(101)와 외부 전자 장치(예: 다른 전자 장치, 서버 및/또는 충전 장치) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 통신 모듈(190)(예: 무선 통신 회로)을 통해, 다른 전자 장치(예: 스마트 폰 또는 웨어러블 전자 장치)와 무선 통신을 수행할 수 있다. 예를 들어, 전자 장치(101)는 다른 전자 장치와 무선 통신을 수행할 수 있고, 서로 명령어 및/또는 데이터를 교환할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 통신 모듈(190)을 통해 외부의 다른 전자 장치에 의해, 적어도 부분적으로 제어될 수 있다. 예를 들어, 전자 장치(101)는 외부의 다른 전자 장치의 제어 하에, 적어도 하나의 기능이 수행될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 카메라 모듈(180)을 통해 실제 현실 공간에 위치한 객체 정보(예: 이미지), 객체와의 거리 정보, 사용자의 시선 정보, 및/또는 사용자의 제스처 정보를 통신 모듈(190)을 통해 외부 장치(예: 다른 전자 장치 및/또는 서버)로 전송할 수 있다.The communication module (190) (or communication circuit) may support the establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (101) and an external electronic device (e.g., another electronic device, a server, and/or a charging device), and the performance of communication through the established communication channel. The communication module (190) may include one or more communication processors that operate independently from the processor (120) (e.g., an application processor) and support direct (e.g., wired) communication or wireless communication. According to one embodiment, the electronic device (101) may perform wireless communication with another electronic device (e.g., a smart phone or a wearable electronic device) through the communication module (190) (e.g., a wireless communication circuit). For example, the electronic device (101) may perform wireless communication with the other electronic device, and may exchange commands and/or data with each other. According to one embodiment, the electronic device (101) may be at least partially controlled by another external electronic device through the communication module (190). For example, the electronic device (101) may perform at least one function under the control of another external electronic device. According to one embodiment, the electronic device (101) may transmit object information (e.g., an image) located in an actual real space, distance information to an object, gaze information of a user, and/or gesture information of a user to an external device (e.g., another electronic device and/or a server) through a communication module (190) via a camera module (180).

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 일 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The antenna module (197) can transmit or receive signals or power to or from the outside (e.g., an external electronic device). According to one embodiment, the antenna module (197) can include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (e.g., a PCB). According to one embodiment, the antenna module (197) can include a plurality of antennas (e.g., an array antenna). A signal or power can be transmitted or received between the communication module (190) and the external electronic device through at least one selected antenna. According to one embodiment, in addition to the radiator, another component (e.g., a radio frequency integrated circuit (RFIC)) can be additionally formed as a part of the antenna module (197).

일 실시예에 따르면, 전자 장치(101)는 무선 및/또는 유선으로 연결된 다른 전자 장치의 제어에 기반하여, 디스플레이 패널의 설정의 적어도 일부를 변경할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 전자 장치(101)의 카메라(예: 카메라 모듈(180))를 통해 획득한 주시안/보조시안 관련 정보(예: 실제 공간에 위치한 객체와의 거리 정보, 사용자의 시선 추적 정보, 사용자의 제스처 정보)를 다른 전자 장치로 전송할 수 있다.According to one embodiment, the electronic device (101) can change at least a part of the settings of the display panel based on the control of another electronic device connected wirelessly and/or wiredly. According to one embodiment, the electronic device (101) can transmit dominant eye/auxiliary eye related information (e.g., distance information to an object located in a real space, gaze tracking information of a user, gesture information of a user) acquired through a camera (e.g., camera module (180)) of the electronic device (101) to another electronic device.

일 실시예에 따르면, 다른 전자 장치는 전자 장치(101)로부터 수신한 주시안/보조시안 관련 정보에 기반하여, 검출한 주시안 또는 보조시안에 대응되는 글래스(예: 제1 글래스(220), 및/또는 제2 글래스(230))에 포함된 디스플레이 패널의 설정 정보를 전자 장치(101)로 전송할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 다른 전자 장치로부터 수신한 디스플레이 패널의 설정 정보를 기반으로, 디스플레이 패널의 설정의 적어도 일부를 변경할 수 있다. 예를 들어, 디스플레이 패널의 설정은 디스플레이 패널의 품질을 낮추도록 변경될 수 있고, 사용자가 체감하지 못할 정도로 설정의 적어도 일부가 변경될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 디스플레이 패널의 해상도를 줄이거나, 프레임 레이트를 줄이거나, 또는 디스플레이 패널의 표시 영역의 크기 및 위치를 조정할 수 있다.According to one embodiment, the other electronic device may transmit, to the electronic device (101), setting information of a display panel included in a glass (e.g., the first glass (220) and/or the second glass (230)) corresponding to the detected dominant or auxiliary eye based on the dominant eye/auxiliary eye related information received from the electronic device (101). According to one embodiment, the electronic device (101) may change at least a part of the setting of the display panel based on the setting information of the display panel received from the other electronic device. For example, the setting of the display panel may be changed to lower the quality of the display panel, and at least a part of the setting may be changed to an extent that the user cannot perceive. According to one embodiment, the electronic device (101) may reduce the resolution of the display panel, reduce the frame rate, or adjust the size and position of the display area of the display panel.

카메라 모듈(180)(또는 카메라)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)의 카메라 모듈(180)은 제스처 카메라(gesture camera)(511), 시선 추적 카메라(eye tracking camera)(513), 거리 측정 카메라(depth camera)(515), 및/또는 RGB 카메라(517)를 포함할 수 있다.The camera module (180) (or camera) can capture still images and moving images. According to one embodiment, the camera module (180) may include one or more lenses, image sensors, image signal processors, or flashes. According to one embodiment, the camera module (180) of the electronic device (101) may include a gesture camera (511), an eye tracking camera (513), a depth camera (515), and/or an RGB camera (517).

일 실시예에 따르면, 제스처 카메라(511)는 사용자의 움직임을 감지할 수 있다. 도 3의 인식용 카메라(311-1, 311-2)는 제스처 카메라(511)를 포함할 수 있다. 예를 들어, 제스처 카메라(511)는 전자 장치(101)에 적어도 하나 이상 배치될 수 있고, 기 설정된 거리 내에서 사용자의 손 움직임을 감지할 수 있다. 제스처 카메라(511)는 전자 장치(101)의 주변 공간과 관련된 정보(예: 위치 및/또는 방향)를 인식하기 위한 SLAM 카메라(simultaneous localization and mapping camera)를 포함할 수 있다. 제스처 카메라(511)의 제스처 인식 영역은 제스처 카메라(511)의 촬영 가능 범위에 기반하여 설정될 수 있다.According to one embodiment, the gesture camera (511) can detect the user's movement. The recognition cameras (311-1, 311-2) of FIG. 3 may include the gesture camera (511). For example, at least one gesture camera (511) may be placed in the electronic device (101) and may detect the user's hand movement within a preset distance. The gesture camera (511) may include a SLAM camera (simultaneous localization and mapping camera) for recognizing information (e.g., location and/or direction) related to the surrounding space of the electronic device (101). The gesture recognition area of the gesture camera (511) may be set based on the shooting range of the gesture camera (511).

일 실시예에 따르면, 시선 추적 카메라(513)(예: 도 3의 제1 시선 추적 카메라(312-1), 제2 시선 추적 카메라(312-2))는 사용자의 좌안 및 우안의 움직임을 추적할 수 있다. 일 실시예에 따르면, 프로세서(120)는 시선 추적 카메라(513)를 사용하여, 좌안의 시선 방향 및 우안의 시선 방향을 확인할 수 있다. 예를 들어, 시선 추적 카메라(513)는 좌안의 시선 방향을 확인하기 위한 제1 시선 추적 카메라(312-1) 및 우안의 시선 방향을 확인하기 위한 제2 시선 추적 카메라(312-2)를 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 좌안의 시선 방향 및 우안의 시선 방향을 기반으로 주시안 및 보조시안을 결정할 수 있다.According to one embodiment, the gaze tracking camera (513) (e.g., the first gaze tracking camera (312-1) and the second gaze tracking camera (312-2) of FIG. 3) can track movements of the user's left and right eyes. According to one embodiment, the processor (120) can use the gaze tracking camera (513) to identify the gaze direction of the left eye and the gaze direction of the right eye. For example, the gaze tracking camera (513) can include a first gaze tracking camera (312-1) for identifying the gaze direction of the left eye and a second gaze tracking camera (312-2) for identifying the gaze direction of the right eye. According to one embodiment, the processor (120) can determine the dominant eye and the auxiliary eye based on the gaze direction of the left eye and the gaze direction of the right eye.

일 실시예에 따르면, 거리 측정 카메라(515)는 전자 장치(101)의 전면에 위치한 객체와의 거리를 측정할 수 있다. 도 2 또는 도 3의 촬영용 카메라(280)는 거리 측정 카메라(515)를 포함할 수 있다. 거리 측정 카메라(515)는 ToF(time of flight) 카메라 및/또는 depth 카메라를 포함할 수 있다. 일 실시예에 따르면, 거리 측정 카메라(515)는 전자 장치(101)의 전면 방향을 촬영할 수 있고, 시선 추적 카메라(513)는 거리 측정 카메라(515)의 촬영 방향과 반대되는 방향을 촬영할 수 있다.According to one embodiment, the distance measuring camera (515) can measure the distance to an object located in front of the electronic device (101). The photographing camera (280) of FIG. 2 or FIG. 3 can include the distance measuring camera (515). The distance measuring camera (515) can include a ToF (time of flight) camera and/or a depth camera. According to one embodiment, the distance measuring camera (515) can capture a front direction of the electronic device (101), and the gaze tracking camera (513) can capture a direction opposite to the shooting direction of the distance measuring camera (515).

일 실시예에 따르면, 전자 장치(101)는 거리 측정 카메라(515)를 사용하여 객체와의 거리를 측정할 수 있고, 거리가 임계값 이상인 경우에 디스플레이 패널의 설정을 변경할 수 있다. 예를 들어, 전자 장치(101)는 객체와의 거리가 임계값 이하로 가까운 경우 디스플레이 패널의 표시 성능을 유지할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 시선 추적 카메라(513)로 사용자가 바라보고 있는 시선 방향(예: FOV)에 위치하는 객체 중 하나를 인지하고, 해당 객체와의 거리를 depth 카메라를 통해 depth를 계산하거나 또는 해당 객체와의 거리를 ToF 카메라를 통해 거리를 측정할 수 있다.According to one embodiment, the electronic device (101) can measure a distance to an object using a distance measuring camera (515), and change a setting of the display panel when the distance is greater than or equal to a threshold value. For example, the electronic device (101) can maintain the display performance of the display panel when the distance to the object is less than or equal to a threshold value. According to one embodiment, the electronic device (101) can recognize one of the objects located in the direction of the user's gaze (e.g., FOV) using the gaze tracking camera (513), and calculate the depth of the distance to the object using a depth camera, or measure the distance to the object using a ToF camera.

일 실시예에 따르면, RGB(red green blue) 카메라(517)는 객체의 색상 관련 정보 및 객체와의 거리 정보를 감지할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 거리 측정 카메라(515)와 RGB 카메라(517)를 통합하여, 한 종류의 카메라를 포함할 수 있다. 예를 들어, 도 2 또는 도 3의 촬영용 카메라(280)는 거리 측정 카메라(515) 및/또는 RGB 카메라(517)를 포함할 수 있다.According to one embodiment, the RGB (red green blue) camera (517) can detect color-related information of an object and distance information to the object. According to one embodiment, the electronic device (101) can include one type of camera by integrating the distance measuring camera (515) and the RGB camera (517). For example, the shooting camera (280) of FIG. 2 or FIG. 3 can include the distance measuring camera (515) and/or the RGB camera (517).

일 실시예에 따르면, 카메라 모듈(180)에 포함된 제스처 카메라(511), 시선 추적 카메라(513), 거리 측정 카메라(515), 및/또는 RGB 카메라(517)는 각각 전자 장치(101)에 포함되거나 또는 일부는 통합된 형태의 카메라로 구현될 수도 있다. 예를 들어, 거리 측정 카메라(515)와 RGB 카메라(517)는 하나의 통합된 카메라로 구현될 수 있다.According to one embodiment, the gesture camera (511), the gaze tracking camera (513), the distance measuring camera (515), and/or the RGB camera (517) included in the camera module (180) may each be included in the electronic device (101) or some may be implemented as integrated cameras. For example, the distance measuring camera (515) and the RGB camera (517) may be implemented as a single integrated camera.

일 실시예에 따르면, 전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 전력 관리 모듈(188)은 복수의 전력 관리 모듈들(예: 제1 전력 관리 모듈(531), 제2 전력 관리 모듈(532))을 포함할 수 있다. 제1 전력 관리 모듈(531) 또는 제2 전력 관리 모듈(532) 중 적어도 일부는 프로세서(120)에 직접적으로(directly) 연결되어 전력을 공급할 수 있다. 제1 전력 관리 모듈(531) 또는 제2 전력 관리 모듈(532) 중 적어도 일부는 연결 단자(530)(예: TYPE-C)를 통해 외부 전자 장치로부터 전력을 수신하여 배터리(189)를 충전하거나 전자 장치(101)의 다른 구성 요소들로 전력을 공급할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 무선 충전 방식을 통하여 외부 전자 장치로부터 전력을 수신하여 배터리(188)를 충전할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 충전 안테나 모듈(540)로부터 외부의 전력을 무선으로 수신할 수 있다.According to one embodiment, the power management module (188) can manage power supplied to the electronic device (101). The power management module (188) can include a plurality of power management modules (e.g., a first power management module (531), a second power management module (532)). At least some of the first power management module (531) or the second power management module (532) can be directly connected to the processor (120) to supply power. At least some of the first power management module (531) or the second power management module (532) can receive power from an external electronic device through a connection terminal (530) (e.g., TYPE-C) to charge the battery (189) or supply power to other components of the electronic device (101). According to one embodiment, the electronic device (101) can receive power from the external electronic device through a wireless charging method to charge the battery (188). According to one embodiment, the electronic device (101) can wirelessly receive external power from a charging antenna module (540).

일 실시예에 따르면, 전력 관리 모듈(188)은 전자 장치(101)의 구성 요소들(예: 메모리(130), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 카메라 모듈(180), 및/또는 통신 모듈(190))과 전기적으로 연결될 수 있다. 예를 들어, 전력 관리 모듈(188)은 프로세서(120)의 제어에 기반하여 배터리(189)의 전력을 전자 장치(101)의 구성 요소들로 제공할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1 전력 관리 모듈(531)을 통해, 제1 배터리(533)로부터 전력을 공급받을 수 있고, 제2 전력 관리 모듈(532)을 통해, 제2 배터리(534)로부터 전력을 공급받을 수 있다. 일 실시예에 따르면, 프로세서(120)는 카메라 모듈(180)에 포함된 상기 적어도 하나의 카메라(511, 513, 515, 517)를 사용하여 획득한 정보를 기반으로 디스플레이 모듈(160)의 설정을 적어도 부분적으로 변경함으로써, 소모되는 전력을 관리할 수 있다.According to one embodiment, the power management module (188) may be electrically connected to components of the electronic device (101) (e.g., memory (130), display module (160), audio module (170), sensor module (176), camera module (180), and/or communication module (190)). For example, the power management module (188) may provide power of the battery (189) to components of the electronic device (101) based on the control of the processor (120). According to one embodiment, the electronic device (101) may receive power from a first battery (533) through the first power management module (531) and may receive power from a second battery (534) through the second power management module (532). According to one embodiment, the processor (120) can manage power consumption by at least partially changing the settings of the display module (160) based on information acquired using at least one camera (511, 513, 515, 517) included in the camera module (180).

배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다. 일 실시예에 따르면, 배터리(189)는 전력 관리 모듈(188)의 제어 하에, 전력을 공급받아 충전되거나 전력을 제공하여 방전될 수 있다. 일 실시예에 따르면, 배터리(189)는 복수의 배터리들(예: 제1 배터리(533), 제2 배터리(534))을 포함할 수 있다. 예를 들어, 복수의 배터리들(예: 제1 배터리(533), 제2 배터리(534))은 메인 프레임(예: 도 2 또는 도 3의 메인 프레임(240))과 지지 프레임(예: 도 2 또는 도 3의 제1 지지 프레임(260), 및/또는 제2 지지 프레임(270))에 배치될 수 있다. 일 실시예에 따르면 제1 배터리(533)는 제1 지지 프레임(260)에 배치될 수 있고, 제2 배터리(534)는 제2 지지 프레임(270)에 배치될 수 있다.The battery (189) can supply power to at least one component of the electronic device (101). In one embodiment, the battery (189) can include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell. In one embodiment, the battery (189) can be charged by receiving power or discharged by providing power under the control of the power management module (188). In one embodiment, the battery (189) can include a plurality of batteries (e.g., a first battery (533), a second battery (534)). For example, the plurality of batteries (e.g., the first battery (533), the second battery (534)) can be disposed in a main frame (e.g., a main frame (240) of FIG. 2 or 3) and a support frame (e.g., a first support frame (260) and/or a second support frame (270) of FIG. 2 or 3). According to one embodiment, the first battery (533) may be placed in the first support frame (260), and the second battery (534) may be placed in the second support frame (270).

충전 안테나 모듈(540)은 전자 장치(101)의 외부로부터 전력을 수신할 수 있다. 일 실시예에 따르면, 충전 안테나 모듈(540)은 안테나 모듈(197)의 구성 및/또는 기능 가운데 적어도 일부를 포함할 수 있다. 일 실시예에 따르면, 충전 안테나 모듈(540)은 루프형 안테나 및/또는 코일형 안테나를 포함할 수 있다. 일 실시예에 따르면, 충전 안테나 모듈(540)은 복수의 안테나들(예: 제1 안테나(541), 제2 안테나(542))을 포함할 수 있다. 예를 들어, 복수의 안테나들(예: 제1 안테나(541), 제2 안테나(542))은 외부로부터 자기장 및/또는 전자기장을 수신할 수 있고, 외부 자기장 및/또는 전자기장으로 인한 자기 유도 및/또는 자기 공명을 통해 생성된 전류를 전력 관리 모듈(188) 및/또는 배터리(189)로 전달할 수 있다. 일 실시예에 따르면, 복수의 안테나들(예: 제1 안테나(541), 제2 안테나(542))은 메인 프레임(예: 도 2 또는 도 3의 메인 프레임(240))과 지지 프레임(예: 도 2 또는 도 3의 제1 지지 프레임(260), 및/또는 제2 지지 프레임(270))에 배치될 수 있다. 일 실시예에 따르면 제1 안테나(541)는 제1 지지 프레임(260)에 배치될 수 있고, 제2 안테나(542)는 제2 지지 프레임(270)에 배치될 수 있다.The charging antenna module (540) can receive power from the outside of the electronic device (101). According to one embodiment, the charging antenna module (540) can include at least some of the configurations and/or functions of the antenna module (197). According to one embodiment, the charging antenna module (540) can include a loop-type antenna and/or a coil-type antenna. According to one embodiment, the charging antenna module (540) can include a plurality of antennas (e.g., a first antenna (541), a second antenna (542)). For example, the plurality of antennas (e.g., the first antenna (541), the second antenna (542)) can receive a magnetic field and/or an electromagnetic field from the outside, and can transmit a current generated through magnetic induction and/or magnetic resonance due to the external magnetic field and/or electromagnetic field to the power management module (188) and/or the battery (189). According to one embodiment, a plurality of antennas (e.g., a first antenna (541), a second antenna (542)) may be disposed on a main frame (e.g., a main frame (240) of FIG. 2 or FIG. 3) and a support frame (e.g., a first support frame (260) of FIG. 2 or FIG. 3, and/or a second support frame (270)). According to one embodiment, the first antenna (541) may be disposed on the first support frame (260), and the second antenna (542) may be disposed on the second support frame (270).

일 실시예에 따르면, 프로세서(120)는 어플리케이션 프로세서(AP, application processor)일 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 연산과 멀티미디어 구동 기능을 수행하는 시스템 반도체일 수 있다. 일 실시예에 따르면, 프로세서(120)는 시스템 온 칩(SoC, system-on-chip) 형태로 구성되어, 여러 반도체 기술을 하나로 집적하고, 시스템 블록들을 하나의 칩으로 구현한 기술 집약적 반도체 칩을 포함할 수 있다.According to one embodiment, the processor (120) may be an application processor (AP). According to one embodiment, the processor (120) may be a system semiconductor that performs operations and multimedia driving functions of the electronic device (101). According to one embodiment, the processor (120) may be configured in the form of a system-on-chip (SoC), and may include a technology-intensive semiconductor chip that integrates multiple semiconductor technologies into one and implements system blocks into one chip.

일 실시예에 따르면, 프로세서(120)는 메모리(130)에 저장된 프로그램(또는 인스트럭션들(instructions))을 실행하여, 적어도 하나의 다른 구성 요소(예: 하드웨어 또는 소프트웨어 구성 요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 사용자에게 증강 현실 서비스를 제공할 수 있다. 프로세서(120)는 디스플레이 모듈(160)을 통해, 전자 장치(101)를 착용한 사용자의 시야각에 대응하는 실제 공간에, 적어도 하나의 가상 객체가 덧붙여 보여지도록 적어도 하나의 가상 객체를 출력할 수 있다.According to one embodiment, the processor (120) may execute a program (or instructions) stored in the memory (130) to control at least one other component (e.g., a hardware or software component) and perform various data processing or calculations. According to one embodiment, the processor (120) may provide an augmented reality service to a user. The processor (120) may output at least one virtual object so that the at least one virtual object is superimposed and displayed in a real space corresponding to a field of view of a user wearing the electronic device (101) through the display module (160).

본 개시의 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 사용자에 의해 요구되는 응용 계층 처리 기능을 할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 다양한 블록들을 위한 기능의 제어 및 명령을 제공할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 각 구성 요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있다. 예를 들어, 프로세서(120)는 도 1의 프로세서(120)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 구성 요소들과 작동적으로 연결될 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 다른 구성 요소로부터 수신된 명령 또는 데이터를 메모리(130)에 로드(load)하고, 메모리(130)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 저장할 수 있다.According to one embodiment of the present disclosure, the processor (120) may perform an application layer processing function requested by a user of the electronic device (101). According to one embodiment, the processor (120) may provide control and commands of functions for various blocks of the electronic device (101). According to one embodiment, the processor (120) may perform operations or data processing related to control and/or communication of each component of the electronic device (101). For example, the processor (120) may include at least some of the configurations and/or functions of the processor (120) of FIG. 1. According to one embodiment, the processor (120) may be operatively connected to the components of the electronic device (101). According to one embodiment, the processor (120) may load a command or data received from another component of the electronic device (101) into the memory (130), process the command or data stored in the memory (130), and store result data.

일 실시예에 따르면, 프로세서(120)는 처리 회로(processing circuitry) 및/또는 실행 가능한 프로그램 요소(executable program elements)를 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 처리 회로 및/또는 실행 가능한 프로그램 요소에 기반하여, 전자 장치(101)와 연결되는 하나 또는 그 이상의 외부 전자 장치(예: 다른 전자 장치 또는 웨어러블 전자 장치)와 시각적 정보(예: 컨텐츠 또는 컨텐츠 뷰)를 공유하고, 시각적 정보를 전자 장치(101)와 외부 전자 장치 간의 상대적 위치(또는 방향성)를 고려하여 표시하도록 지원하는 것과 관련된 전반적인 동작을 제어(또는 처리)할 수 있다. 예를 들어, 프로세서(120)는 전자 장치(101)의 시각적 정보를 외부 전자 장치로 제공(예: 전송 또는 공유)하고, 전자 장치(101)의 디스플레이 및 외부 전자 장치의 디스플레이를 통해 시각적 정보를 각각 표시하도록 제어하는 것과 관련된 전반적인 동작을 제어(또는 처리)할 수 있다.According to one embodiment, the processor (120) may include processing circuitry and/or executable program elements. According to one embodiment, the processor (120) may control (or process) overall operations related to sharing visual information (e.g., content or content views) with one or more external electronic devices (e.g., other electronic devices or wearable electronic devices) connected to the electronic device (101) and supporting display of the visual information in consideration of the relative position (or directionality) between the electronic device (101) and the external electronic devices, based on the processing circuitry and/or the executable program elements. For example, the processor (120) may control (or process) overall operations related to providing (e.g., transmitting or sharing) visual information of the electronic device (101) to the external electronic device and controlling display of the visual information through a display of the electronic device (101) and a display of the external electronic device, respectively.

예를 들어, 제1 전자 장치(410)와 제2 전자 장치(420)는 제1 전자 장치(410)의 제1 사용자(예: A 사용자)와 제2 전자 장치(420)의 제2 사용자(예: B 사용자)의 협업(또는 공동 작업)이 가능한 컨텐츠(예: 공유 컨텐츠)를 공유하고, 컨텐츠 공유 시에, 제1 사용자와 제2 사용자 간의 협업에 따른 편의성 및 몰입감을 향상하도록, 제1 사용자와 제2 사용자 간의 상대적 위치(또는 방향성)를 고려하여 제공할 수 있다.For example, a first electronic device (410) and a second electronic device (420) may share content (e.g., shared content) that enables collaboration (or joint work) between a first user (e.g., user A) of the first electronic device (410) and a second user (e.g., user B) of the second electronic device (420), and, when sharing the content, the first user and the second user may be provided in consideration of the relative position (or directionality) between the first user and the second user to enhance convenience and immersion in the collaboration between the first user and the second user.

일 실시예에 따르면, 프로세서(120)는 컨텐츠를 표시하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 컨텐츠를 표시하는 동안, 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 제1 표시 영역과 대상 전자 장치의 제2 표시 영역이 중첩되는 영역에 기반하여 공유 영역을 결정하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 공유 영역에 기반하여 컨텐츠를 이동 배치하여 표시하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 컨텐츠 및 공유 정보를 대상 전자 장치로 전송하여, 대상 전자 장치가 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하는 동작을 수행할 수 있다.According to one embodiment, the processor (120) may perform an operation of displaying content. According to one embodiment, the processor (120) may perform an operation of connecting with a target electronic device for sharing the content while displaying the content. According to one embodiment, the processor (120) may perform an operation of determining a sharing area based on an area where a first display area of the electronic device (101) and a second display area of the target electronic device overlap. According to one embodiment, the processor (120) may perform an operation of generating sharing information related to sharing of the content based on the sharing area. According to one embodiment, the processor (120) may perform an operation of moving and arranging the content based on the sharing area. According to one embodiment, the processor (120) may perform an operation of transmitting the content and the sharing information to the target electronic device, and controlling the target electronic device to display the content based on the sharing area.

일 실시예에 따라, 전자 장치(101)의 프로세서(120)의 상세 동작에 관하여 후술하는 도면들을 참조하여 설명된다.According to one embodiment, the detailed operation of the processor (120) of the electronic device (101) is described with reference to the drawings below.

일 실시예에 따르면, 프로세서(120)에서 수행하는 동작들은, 기록 매체(또는 컴퓨터 프로그램 프로덕트(computer program product))로 구현될 수 있다. 예를 들어, 기록 매체는 프로세서(120)에서 수행하는 다양한 동작을 실행시키기 위한 프로그램을 기록한 비 일시적(non-transitory) 컴퓨터(computer)로 판독 가능한 기록 매체를 포함할 수 있다.According to one embodiment, the operations performed by the processor (120) may be implemented as a recording medium (or a computer program product). For example, the recording medium may include a non-transitory computer-readable recording medium having recorded thereon a program for executing various operations performed by the processor (120).

본 개시에서 설명되는 실시예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, 일 실시예에서 설명되는 동작들은 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 및/또는 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다.The embodiments described in the present disclosure can be implemented in a computer-readable recording medium using software, hardware, or a combination thereof. In a hardware implementation, the operations described in one embodiment can be implemented using at least one of application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, controllers, micro-controllers, microprocessors, and/or other electrical units for performing functions.

일 실시예에서, 기록 매체(또는 컴퓨터 프로그램 프로덕트)는, 컨텐츠를 표시하는 동작, 상기 컨텐츠를 표시하는 동안, 상기 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하는 동작, 상기 전자 장치(101)의 제1 표시 영역과 상기 대상 전자 장치의 제2 표시 영역이 중첩되는 영역에 기반하여 공유 영역을 결정하는 동작, 상기 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작, 상기 공유 영역에 기반하여 상기 컨텐츠를 이동 배치하여 표시하는 동작, 및 상기 컨텐츠 및 상기 공유 정보를 상기 대상 전자 장치로 전송하여, 상기 대상 전자 장치가 상기 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하는 동작을 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.In one embodiment, the recording medium (or the computer program product) may include a computer-readable recording medium storing a program for executing the following operations: displaying content; connecting with a target electronic device for sharing the content while displaying the content; determining a sharing area based on an area where a first display area of the electronic device (101) and a second display area of the target electronic device overlap; generating sharing information related to sharing of the content based on the sharing area; moving and arranging and displaying the content based on the sharing area; and transmitting the content and the sharing information to the target electronic device to control the target electronic device to display the content based on the sharing area.

본 개시의 일 실시예에 따른 전자 장치(101, 201)는, 디스플레이(160), 통신 회로(190), 인스트럭션들을 저장하는 메모리(130), 및 상기 디스플레이(160), 상기 통신 회로(190), 및 상기 메모리(130)와 작동적으로(operatively) 연결된 프로세서(120)를 포함할 수 있다.An electronic device (101, 201) according to one embodiment of the present disclosure may include a display (160), a communication circuit (190), a memory (130) storing instructions, and a processor (120) operatively connected with the display (160), the communication circuit (190), and the memory (130).

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101, 201)로 하여금, 컨텐츠를 표시하도록 할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 컨텐츠를 표시하는 동안, 상기 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하도록 할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 전자 장치(101)의 제1 표시 영역과 상기 대상 전자 장치의 제2 표시 영역이 중첩되는 영역에 기반하여 공유 영역을 결정하도록 할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하도록 할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 공유 영역에 기반하여 상기 컨텐츠를 이동 배치하여 표시하도록 할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 컨텐츠 및 상기 공유 정보를 상기 대상 전자 장치로 전송하여, 상기 대상 전자 장치가 상기 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하도록 할 수 있다.According to one embodiment, the instructions, when executed by the processor (120), may cause the electronic device (101, 201) to display content. The instructions, when executed by the processor (120), may cause the electronic device (101) to connect with a target electronic device for sharing the content while displaying the content. The instructions, when executed by the processor (120), may cause the electronic device (101) to determine a sharing area based on an area where a first display area of the electronic device (101) and a second display area of the target electronic device overlap. The instructions, when executed by the processor (120), may cause the electronic device (101) to generate sharing information related to sharing of the content based on the sharing area. The above instructions, when executed by the processor (120), can cause the electronic device (101) to move and display the content based on the shared area. The above instructions, when executed by the processor (120), can cause the electronic device (101) to transmit the content and the shared information to the target electronic device, thereby controlling the target electronic device to display the content based on the shared area.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 대상 전자 장치로부터 상기 대상 전자 장치에 관련된 제1 지정된 정보와 상기 전자 장치(101)에 관련된 제2 지정된 정보를 획득하도록 할 수 있다. 일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 제1 지정된 정보와 상기 제2 지정된 정보에 기반하여 상기 공유 영역을 위한 중첩 영역을 계산하도록 할 수 있다. 일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 중첩 영역의 적어도 일부 영역에 기반하여 상기 공유 영역을 결정하도록 할 수 있다.According to one embodiment, the instructions, when executed by the processor (120), may cause the electronic device (101) to obtain, from the target electronic device, first designated information related to the target electronic device and second designated information related to the electronic device (101). According to one embodiment, the instructions, when executed by the processor (120), may cause the electronic device (101) to calculate an overlapping area for the shared area based on the first designated information and the second designated information. According to one embodiment, the instructions, when executed by the processor (120), may cause the electronic device (101) to determine the shared area based on at least a portion of the overlapping area.

일 실시예에 따르면, 상기 제1 지정된 정보는, 상기 대상 전자 장치에 관련된 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보를 포함할 수 있다. 일 실시예에 따르면, 상기 제2 지정된 정보는, 상기 전자 장치(101)에 관련된 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보를 포함할 수 있다.According to one embodiment, the first specified information may include device capability information, location information, and/or display area information related to the target electronic device. According to one embodiment, the second specified information may include device capability information, location information, and/or display area information related to the electronic device (101).

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 중첩 영역의 크기에 기반하여 상기 중첩 영역에 기반하여 컨텐츠를 공유할 지 여부를 결정하도록 할 수 있다.According to one embodiment, the instructions, when executed by the processor (120), may cause the electronic device (101) to determine whether to share content based on the overlapping area based on the size of the overlapping area.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 중첩 영역의 크기가 지정된 기준 값 이상인지 판단하도록 할 수 있다.According to one embodiment, the instructions, when executed by the processor (120), may cause the electronic device (101) to determine whether the size of the overlapping area is greater than or equal to a specified reference value.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 중첩 영역의 크기가 지정된 기준 값 이상인 것을 판단하는 경우, 상기 중첩 영역에 기반하여 컨텐츠의 공유에 관련된 상기 공유 정보를 생성하도록 할 수 있다.According to one embodiment, the instructions, when executed by the processor (120), may cause the electronic device (101) to generate sharing information related to sharing of content based on the overlapping area if it is determined that the size of the overlapping area is greater than or equal to a specified reference value.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 중첩 영역의 크기가 지정된 기준 값 미만인 것을 판단하는 경우, 상기 전자 장치(101)의 상기 디스플레이(160)를 통해, 상기 대상 전자 장치와 중첩 영역 설정을 위해 위치를 이동하도록 가이드하는 가이드 정보를 제공하도록 할 수 있다.According to one embodiment, the instructions, when executed by the processor (120), may cause the electronic device (101) to provide guide information through the display (160) of the electronic device (101) to guide movement of a position for setting an overlapping area with the target electronic device when determining that the size of the overlapping area is less than a specified reference value.

일 실시예에 따르면, 상기 공유 정보는, 컨텐츠의 표시 정보 및/또는 공유 영역 정보를 포함할 수 있다.According to one embodiment, the shared information may include display information of the content and/or shared area information.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 통신 회로(190)를 이용하여, 상기 컨텐츠를 상기 대상 전자 장치로 제공할 때, 미러링 공유, 실행 링크 공유, 또는 컨텐츠 공유에 기반하여 상기 대상 전자 장치와 상기 컨텐츠를 공유하도록 할 수 있다.According to one embodiment, the instructions, when executed by the processor (120), may cause the electronic device (101) to share the content with the target electronic device based on mirroring sharing, execution link sharing, or content sharing when providing the content to the target electronic device using the communication circuit (190).

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 전자 장치(101)와 상기 대상 전자 장치 간에 컨텐츠 공유가 이루어진 상황에서, 상기 대상 전자 장치와의 상대적 위치 변화를 모니터링하도록 할 수 있다. 일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 상기 상대적 위치 변화 감지에 기반하여 중첩 영역을 재설정하도록 할 수 있다.According to one embodiment, the instructions, when executed by the processor (120), may cause the electronic device (101) to monitor a change in relative position with respect to the target electronic device in a situation where content is shared between the electronic device (101) and the target electronic device. According to one embodiment, the instructions, when executed by the processor (120), may cause the electronic device (101) to reset an overlapping area based on detection of the change in relative position.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금, 재설정된 중첩 영역에 기반하여 컨텐츠를 표시하고, 변경된 공유 정보를 상기 대상 전자 장치로 전송하도록 할 수 있다.According to one embodiment, the instructions, when executed by the processor (120), may cause the electronic device (101) to display content based on the reset overlapping area and transmit changed shared information to the target electronic device.

이하에서는 다양한 실시예들의 전자 장치(101)의 동작 방법에 대해서 상세하게 설명한다. 다양한 실시예들에 따른 전자 장치(101)에서 수행하는 동작들은, 전자 장치(101)의 다양한 프로세싱 회로(various processing circuitry) 및/또는 실행 가능한 프로그램 요소(executable program elements)를 포함하는 프로세서(120)에 의해 실행될 수 있다. 일 실시예에 따라, 전자 장치(101)에서 수행하는 동작들은, 메모리(130)에 저장되고, 실행 시에, 프로세서(120)가 동작하도록 하는 인스트럭션들(instructions)에 의해 실행될 수 있다.Hereinafter, the operation method of the electronic device (101) according to various embodiments will be described in detail. The operations performed in the electronic device (101) according to various embodiments may be executed by the processor (120) including various processing circuitry and/or executable program elements of the electronic device (101). According to one embodiment, the operations performed in the electronic device (101) may be stored in the memory (130) and executed by instructions that cause the processor (120) to operate when executed.

도 6은 본 개시의 일 실시예에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.FIG. 6 is a flowchart illustrating a method of operating an electronic device according to one embodiment of the present disclosure.

도 7a, 도 7b 및 도 7c는 본 개시의 일 실시예에 따른 전자 장치들 간에 컨텐츠를 공유하는 동작의 예를 나타낼 수 있다.FIGS. 7A, 7B, and 7C may illustrate examples of operations for sharing content between electronic devices according to one embodiment of the present disclosure.

일 실시예에 따라, 도 6은 일 실시예에 따른 전자 장치(101)(예: 제1 전자 장치(410))가 가상 환경을 제공하는 동안, 전자 장치(101)와 연결되는 하나 또는 그 이상의 외부 전자 장치(예: 제2 전자 장치(420))와 시각적 정보(예: 컨텐츠 또는 컨텐츠 뷰)를 공유하고, 시각적 정보를 전자 장치(101)와 외부 전자 장치 간의 위치(예: 상대적 위치)(또는 방향성)를 고려하여 표시하도록 지원하는 것과 관련된 동작의 예를 나타낼 수 있다. 예를 들어, 도 6에서는 전자 장치(101)의 시각적 정보를 외부 전자 장치로 제공(예: 전송 또는 공유)하고, 전자 장치(101)의 디스플레이 및 외부 전자 장치의 디스플레이를 통해 시각적 정보를 각각 표시하도록 제어하는 것과 관련된 동작의 예를 나타낼 수 있다.According to one embodiment, FIG. 6 may illustrate an example of an operation related to supporting sharing visual information (e.g., content or content views) with one or more external electronic devices (e.g., second electronic devices (420)) connected to the electronic device (101) while providing a virtual environment, and displaying the visual information in consideration of a location (e.g., a relative location) (or directionality) between the electronic device (101) and the external electronic devices. For example, FIG. 6 may illustrate an example of an operation related to providing (e.g., transmitting or sharing) visual information of the electronic device (101) to an external electronic device, and controlling the display of the electronic device (101) and the display of the external electronic device to display the visual information, respectively.

일 실시예에 따라, 도 6의 도시된 흐름도의 동작은 컨텐츠의 공유를 실행하는 전자 장치(101)(예: 제1 전자 장치(410) 또는 제2 전자 장치(420))에서의 동작 예를 나타낼 수 있다. 예를 들어, 도 6은 컨텐츠를 공유하기 위한 프로세싱의 주체에 따라 제1 전자 장치(410) 또는 제2 전자 장치(420)에서 수행될 수 있다. 일 실시예에서, 도 6 내지 도 7c에서는 컨텐츠를 공유하는 프로세싱의 주체가 제1 전자 장치(410)인 것을 예로 하지만, 컨텐츠를 공유하는 프로세싱의 주체가 제2 전자 장치(420)인 경우, 제2 전자 장치(420)에서 도 6에 도시된 흐름도에 따른 동작을 수행할 수도 있다. 예를 들어, 전자 장치(101)는 컨텐츠를 공유 요청하는 송신측 동작과 컨텐츠를 공유 요청을 수신하는 수신측 동작을 모두 수행 가능할 수 있다.According to one embodiment, the operation of the illustrated flowchart of FIG. 6 may represent an example of an operation in an electronic device (101) (e.g., a first electronic device (410) or a second electronic device (420)) that executes content sharing. For example, FIG. 6 may be performed in the first electronic device (410) or the second electronic device (420) depending on the subject of the processing for sharing the content. In one embodiment, FIGS. 6 to 7C illustrate that the subject of the processing for sharing the content is the first electronic device (410), but if the subject of the processing for sharing the content is the second electronic device (420), the second electronic device (420) may also perform the operation according to the flowchart illustrated in FIG. 6. For example, the electronic device (101) may be capable of performing both a transmitting operation for requesting content sharing and a receiving operation for receiving a content sharing request.

일 실시예에 따라, 도 7a, 도 7b 및 도 7c는 제1 전자 장치(410)의 제1 사용자(710)(예: A 사용자)와 제2 전자 장치(420)의 제2 사용자(720)(예: B 사용자) 간의 협업(또는 공동 작업)을 위한 컨텐츠(730)(예: 공유 컨텐츠(730))를 공유 영역(또는 중첩 영역)에 기반하여 제공하는 동작의 예를 나타낼 수 있다. 예를 들어, 도 7a, 도 7b 및 도 7c는 제1 전자 장치(410)와 제2 전자 장치(420)가 제1 사용자(710)와 제2 사용자(720) 간의 협업에 따른 편의성 및 몰입감을 향상하도록, 제1 사용자(710)(또는 제1 전자 장치(410))와 제2 사용자(720)(또는 제2 전자 장치(420)) 간의 상대적 위치(또는 방향성)를 고려하여 공유 컨텐츠를 각각 표시하는 동작의 예를 나타낼 수 있다.According to one embodiment, FIGS. 7A, 7B, and 7C may illustrate examples of operations for providing content (730) (e.g., shared content (730)) for collaboration (or joint work) between a first user (710) (e.g., user A) of a first electronic device (410) and a second user (720) (e.g., user B) of a second electronic device (420) based on a shared area (or overlapping area). For example, FIGS. 7A, 7B, and 7C may illustrate examples of operations in which the first electronic device (410) and the second electronic device (420) each display shared content while considering the relative position (or directionality) between the first user (710) (or the first electronic device (410)) and the second user (720) (or the second electronic device (420)) to enhance convenience and immersion in collaboration between the first user (710) and the second user (720).

본 개시의 일 실시예에 따른 전자 장치(101)에서 지원하는 동작 방법은, 예를 들어, 도 6에 도시된 흐름도에 따라 수행될 수 있다. 도 6에 도시된 흐름도는 전자 장치(101)의 동작의 일 실시예에 따른 흐름도에 불과하며, 적어도 일부 동작의 순서는 변경되거나 병렬적으로 수행되거나, 독립적인 동작으로 수행되거나, 또는 적어도 일부 다른 동작이 적어도 일부 동작에 보완적으로 수행될 수 있다. 본 개시의 일 실시예에 따르면, 동작 601 내지 동작 611은 전자 장치(101)의 적어도 하나의 프로세서(120)(예: 도 1 또는 도 5의 프로세서(120))에서 수행될 수 있다.The operation method supported by the electronic device (101) according to one embodiment of the present disclosure may be performed according to, for example, the flowchart illustrated in FIG. 6. The flowchart illustrated in FIG. 6 is merely a flowchart according to one embodiment of the operation of the electronic device (101), and the order of at least some operations may be changed or performed in parallel, performed as independent operations, or at least some other operations may be performed complementarily to at least some operations. According to one embodiment of the present disclosure,operations 601 to 611 may be performed by at least one processor (120) of the electronic device (101) (e.g., the processor (120) of FIG. 1 or FIG. 5 ).

도 6에 도시한 바와 같이, 일 실시예에 따른 전자 장치(101)가 수행하는 동작 방법은, 컨텐츠를 표시하는 동작(601), 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하는 동작(603), 전자 장치와 대상 전자 장치의 표시 영역에 기반하여 공유 영역을 결정하는 동작(605), 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작(607), 공유 영역에 기반하여 공유 컨텐츠를 표시하는 동작(609), 및 공유 컨텐츠 및 공유 정보를 대상 전자 장치로 전송하여 대상 전자 장치가 공유 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하는 동작(611)을 포함할 수 있다.As illustrated in FIG. 6, an operation method performed by an electronic device (101) according to an embodiment may include an operation (601) of displaying content, an operation (603) of connecting with a target electronic device for sharing content, an operation (605) of determining a sharing area based on display areas of the electronic device and the target electronic device, an operation (607) of generating sharing information related to sharing of content based on the sharing area, an operation (609) of displaying shared content based on the sharing area, and an operation (611) of transmitting the shared content and the sharing information to the target electronic device to control the target electronic device to display the shared content based on the sharing area.

도 6을 참조하면, 동작 601에서, 전자 장치(101)의 프로세서(120)는 컨텐츠를 표시하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)(예: 제1 전자 장치(410))의 디스플레이(예: 도 1 또는 도 5의 디스플레이 모듈(160))를 통해 가상 환경에 대응하는 실행 화면(예: AR 화면 또는 VR 화면)을 표시할 수 있다. 일 실시예에 따르면, 프로세서(120)는 실행 화면을 통해 현실 세계(또는 실세계) 또는 가상 세계의 적어도 일부에 겹쳐진 컨텐츠를 제공할 수 있다. 일 실시예에 따르면, 컨텐츠는 사용자의 시야각 상에서 보여지는 적어도 하나의 가상 객체를 포함할 수 있다. 일 실시예에서, 컨텐츠는 전자 장치(101)의 디스플레이를 통해 실행된 어플리케이션에 대응하는 그래픽 데이터가 가상 객체로 제공되는 것일 수 있다. 이의 예가 도 7a에 도시된다.Referring to FIG. 6, inoperation 601, the processor (120) of the electronic device (101) may perform an operation of displaying content. According to one embodiment, the processor (120) may display an execution screen (e.g., an AR screen or a VR screen) corresponding to a virtual environment through a display (e.g., a display module (160) of FIG. 1 or FIG. 5) of the electronic device (101) (e.g., the first electronic device (410)). According to one embodiment, the processor (120) may provide content overlapping at least a part of the real world (or the real world) or the virtual world through the execution screen. According to one embodiment, the content may include at least one virtual object visible on the user's field of view. In one embodiment, the content may be graphic data corresponding to an application executed through the display of the electronic device (101) provided as a virtual object. An example of this is illustrated in FIG. 7A.

도 7a를 참조하면, 도 7a는 사용자(710)(예: 제1 사용자)가 전자 장치(101)(예: 제1 전자 장치(410))를 착용하고, 제1 전자 장치(101)의 디스플레이(예: 도 1 또는 도 5의 디스플레이 모듈(160))를 통해 제공되는 AR 화면을 보고 있는 상태를 나타낼 수 있다. 예를 들면, 도 7a는 제1 사용자(710)가 현실 공간(700)(예: 사용자 전방의 실세계)에서 제 1 전자 장치(410)의 제1 표시 영역(701)(또는 제1 가상 환경)(예: 제1 전자 장치(410)의 AR 화면)을 통해 현실 공간(700)의 적어도 일부에 겹쳐진 컨텐츠(730)(또는 가상 객체 또는 증강 현실 이미지)를 보고 있는 상태를 나타낼 수 있다. 일 실시예에 따라, 컨텐츠(730)는 사용자의 시야각(FOV) 상에서 보여지는 가상 객체를 포함할 수 있다. 일 실시예에서, 컨텐츠(730)는 제1 전자 장치(410)를 착용한 제1 사용자(710)가 위치한 실제 현실 공간(700)에서 제1 표시 영역(701)을 통해 적어도 하나의 어플리케이션에 대응하는 그래픽 데이터가 가상 객체로서 제공되는 것일 수 있다.Referring to FIG. 7A, FIG. 7A may represent a state in which a user (710) (e.g., a first user) wears an electronic device (101) (e.g., a first electronic device (410)) and views an AR screen provided through a display (e.g., a display module (160) of FIG. 1 or FIG. 5) of the first electronic device (101). For example, FIG. 7A may represent a state in which the first user (710) views content (730) (or a virtual object or an augmented reality image) superimposed on at least a portion of a real space (700) (e.g., a real world in front of the user) through a first display area (701) (or a first virtual environment) (e.g., an AR screen of the first electronic device (410)) of the first electronic device (410). According to one embodiment, the content (730) may include a virtual object viewed on a user's field of view (FOV). In one embodiment, the content (730) may be graphic data corresponding to at least one application provided as a virtual object through a first display area (701) in a real space (700) where a first user (710) wearing a first electronic device (410) is located.

일 실시예에 따르면, 제1 전자 장치(410)는 사용자에 의해 착용되고, 제1 전자 장치(410)의 디스플레이를 통해 현실 공간(700)의 적어도 일부(예: 제1 표시 영역(701))에 하나 이상의 컨텐츠(730)를 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 실제 현실 공간(700)에서 제1 사용자(710)의 시야각에 대응하는 제1 표시 영역(701)에 적어도 하나의 가상 정보를 겹쳐서 제1 사용자(710)에게 제공할 수 있다. 일 실시예에 따르면, 컨텐츠(730)는 제1 전자 장치(410)에 설정된 지정된 동작(또는 지정된 동작 모드)(예: body lock mode)에 기반하여, 제1 전자 장치(410)의 위치(또는 현실 공간(700)에서 제1 사용자(710)의 시선에 대응하는 방향(예: 제1 사용자(710)의 전방))를 기반으로 배치되어 표시될 수 있다.According to one embodiment, the first electronic device (410) is worn by a user and can display one or more contents (730) on at least a part of a real space (700) (e.g., a first display area (701)) through a display of the first electronic device (410). For example, the first electronic device (410) can provide at least one virtual information to the first user (710) by overlapping the first display area (701) corresponding to a field of view of the first user (710) in the real space (700). According to one embodiment, the contents (730) can be positioned and displayed based on a position of the first electronic device (410) (or a direction corresponding to a gaze of the first user (710) in the real space (700) (e.g., forward of the first user (710))) based on a designated operation (or designated operation mode) (e.g., body lock mode) set in the first electronic device (410).

동작 603에서, 프로세서(120)는 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 가상 환경에 대응하는 실행 화면(예: 제1 표시 영역(701)에 기반한 컨텐츠(730))을 표시하는 동안(예: 컨텐츠를 표시하는 동안) 현실 공간(700)에 있는 외부 전자 장치 중 지정된 대상 전자 장치(예: 제2 전자 장치(420))와 연결할 수 있다. 일 실시예에 따르면, 프로세서(120)는 사용자 입력(예: 컨텐츠 공유 또는 외부 전자 장치 연결에 관련된 사용자 입력) 또는 주변의 외부 전자 장치(예: 주변 전자 장치)의 스캔에 기반한 외부 전자 장치의 자동 인식(예: 자동 페어링 기능)에 기반하여 외부 전자 장치와 연결(또는 페어링)하는 동작을 수행할 수 있다. 일 실시예에서, 외부 전자 장치는 AR 서비스를 지원하고, 제1 전자 장치(410)와 동일한 물리적 공간(예: 현실 공간(700))에 존재하는 다른 전자 장치(101)(예: 제2 전자 장치(420))를 포함할 수 있다. 일 실시예에 따라, 프로세서(120)는 지정된 통신 방식(예: 직접(예: 유선) 통신 또는 무선 통신)을 통해 제1 전자 장치(410)와 제2 전자 장치(420) 간의 연결을 지원할 수 있다.Inoperation 603, the processor (120) may perform an operation of connecting with a target electronic device for sharing content. According to one embodiment, the processor (120) may connect with a designated target electronic device (e.g., a second electronic device (420)) among external electronic devices in the real space (700) while displaying an execution screen (e.g., content (730) based on the first display area (701)) corresponding to a virtual environment (e.g., while displaying content). According to one embodiment, the processor (120) may perform an operation of connecting (or pairing) with an external electronic device based on automatic recognition (e.g., an automatic pairing function) of the external electronic device based on a user input (e.g., a user input related to content sharing or connection to an external electronic device) or a scan of a surrounding external electronic device (e.g., a surrounding electronic device). In one embodiment, the external electronic device may include another electronic device (101) (e.g., a second electronic device (420)) that supports the AR service and exists in the same physical space (e.g., real space (700)) as the first electronic device (410). According to one embodiment, the processor (120) may support a connection between the first electronic device (410) and the second electronic device (420) through a specified communication method (e.g., direct (e.g., wired) communication or wireless communication).

일 실시예에 따라, 외부 전자 장치(예: 제2 전자 장치(420))는 외부 전자 장치의 디스플레이(예: 도 1 또는 도 5의 디스플레이 모듈(160))를 통해 가상 환경에 대응하는 실행 화면(예: AR 화면 또는 VR 화면)을 표시할 수 있다. 일 실시예에 따르면, 외부 전자 장치는 실행 화면을 통해 현실 세계(또는 실세계) 또는 가상 세계의 적어도 일부에 겹쳐진 컨텐츠를 제공할 수 있다. 이의 예가 도 7b에 도시된다.According to one embodiment, an external electronic device (e.g., the second electronic device (420)) may display an execution screen (e.g., an AR screen or a VR screen) corresponding to a virtual environment through a display of the external electronic device (e.g., the display module (160) of FIG. 1 or FIG. 5). According to one embodiment, the external electronic device may provide content superimposed on at least a part of the real world (or the real world) or the virtual world through the execution screen. An example of this is illustrated in FIG. 7b.

도 7b를 참조하면, 도 7b는 제1 사용자(710)와 동일한 물리적 공간(예: 현실 공간(700))에 제2 사용자(720)가 제1 사용자(710)와 근거리에 위치하고, 제2 사용자(720)가 제2 전자 장치(420)를 착용하고, 제2 전자 장치(420)의 디스플레이(예: 도 1 또는 도 5의 디스플레이 모듈(160))를 통해 제공되는 AR 화면을 보고 있는 상태를 나타낼 수 있다. 예를 들면, 도 7b는 제2 사용자(720)가 현실 공간(700)(예: 사용자 전방의 실세계)에서 제 2 전자 장치(420)의 제2 표시 영역(703)(또는 제2 가상 환경)(예: 제2 전자 장치(420)의 AR 화면)을 통해 현실 공간(700) 또는 현실 공간(700)의 적어도 일부에 겹쳐진 컨텐츠(미도시)(또는 가상 객체 또는 증강 현실 이미지)를 보고 있는 상태를 나타낼 수 있다. 일 실시예에서, 컨텐츠(미도시)는 제2 전자 장치(420)를 착용한 제2 사용자(720)가 위치한 실제 현실 공간(700)에서 제2 표시 영역(703)을 통해 적어도 하나의 어플리케이션에 대응하는 그래픽 데이터가 가상 객체로서 제공되는 것일 수 있다.Referring to FIG. 7B, FIG. 7B may represent a state in which a second user (720) is positioned in close proximity to the first user (710) in the same physical space (e.g., real space (700)) as the first user (710), the second user (720) is wearing a second electronic device (420), and is viewing an AR screen provided through a display of the second electronic device (420) (e.g., a display module (160) of FIG. 1 or FIG. 5). For example, FIG. 7B may represent a state in which a second user (720) views content (not shown) (or a virtual object or an augmented reality image) superimposed on the real space (700) or at least a portion of the real space (700) through a second display area (703) (or a second virtual environment) (e.g., an AR screen of the second electronic device (420)) of the second electronic device (420) in the real space (700) (e.g., the real world in front of the user). In one embodiment, the content (not shown) may be graphic data corresponding to at least one application provided as a virtual object through the second display area (703) in the real real space (700) in which the second user (720) wearing the second electronic device (420) is located.

일 실시예에 따르면, 제2 전자 장치(420)는 사용자에 의해 착용되고, 제2 전자 장치(410)의 디스플레이를 통해 현실 공간(700)의 적어도 일부(예: 제2 표시 영역(703))에 하나 이상의 컨텐츠(미도시)를 표시할 수 있다. 예를 들어, 제2 전자 장치(420)는 실제 현실 공간(700)에서 제2 사용자(720)의 시야각에 대응하는 제2 표시 영역(703)에 적어도 하나의 가상 정보를 겹쳐서 제2 사용자(720)에게 제공할 수 있다. 일 실시예에 따르면, 컨텐츠(미도시)는 제2 전자 장치(420)에 설정된 지정된 동작(또는 지정된 동작 모드)(예: body lock mode)에 기반하여, 제2 전자 장치(420)의 위치(또는 현실 공간(700)에서 제2 사용자(720)의 시선에 대응하는 방향(예: 제2 사용자(720)의 전방))를 기반으로 배치되어 표시될 수 있다.According to one embodiment, the second electronic device (420) is worn by the user and may display one or more contents (not shown) on at least a part of the real space (700) (e.g., the second display area (703)) through the display of the second electronic device (410). For example, the second electronic device (420) may provide at least one virtual information to the second user (720) by overlapping the second display area (703) corresponding to the field of view of the second user (720) in the real real space (700). According to one embodiment, the contents (not shown) may be positioned and displayed based on the position of the second electronic device (420) (or the direction corresponding to the gaze of the second user (720) in the real space (700) (e.g., the front of the second user (720))) based on a designated operation (or designated operation mode) (e.g., body lock mode) set in the second electronic device (420).

일 실시예에 따르면, 도 7b는 제1 전자 장치(410)와 제2 전자 장치(420) 간에 컨텐츠 공유가 이루어지기 전의 상황일 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 제2 전자 장치(420)의 디스플레이(예: 도 1 또는 도 5의 디스플레이 모듈(160))를 통해 가상 환경에 대응하는 실행 화면(예: AR 화면 또는 VR 화면)을 표시할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 제2 전자 장치(420)의 제2 사용자(720)의 요청에 대응하는 실행 화면(예: 현실 세계(또는 실세계) 또는 가상 세계의 적어도 일부에 겹쳐진 컨텐츠)를 제공할 수 있다. 예를 들어, 제1 전자 장치(410)와 제2 전자 장치(420) 간에 컨텐츠 공유가 수행되기 전에는 제1 전자 장치(410)의 디스플레이를 통해 표시되는 컨텐츠(예: 가상 객체)는 제2 전자 장치(420)의 디스플레이를 통해서는 표시되지 않을 수 있다.According to one embodiment, FIG. 7B may be a situation before content sharing is performed between the first electronic device (410) and the second electronic device (420). According to one embodiment, the second electronic device (420) may display an execution screen (e.g., an AR screen or a VR screen) corresponding to a virtual environment through the display of the second electronic device (420) (e.g., the display module (160) of FIG. 1 or FIG. 5). According to one embodiment, the second electronic device (420) may provide an execution screen (e.g., content overlapping at least a part of the real world (or the real world) or the virtual world) corresponding to a request of a second user (720) of the second electronic device (420). For example, before content sharing is performed between the first electronic device (410) and the second electronic device (420), content (e.g., a virtual object) displayed through the display of the first electronic device (410) may not be displayed through the display of the second electronic device (420).

동작 605에서, 프로세서(120)는 전자 장치(101)(예: 제1 전자 장치(410))와 대상 전자 장치(예: 제2 전자 장치(420))의 표시 영역(예: 제1 표시 영역(701) 및 제2 표시 영역(703))에 기반하여 공유 영역을 결정하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 제1 전자 장치(410)의 제1 표시 영역(701)과 제2 전자 장치(420)의 제2 표시 영역(703) 간에 중첩되는 적어도 일부 영역(예: 도 7c의 제1 표시 영역(701)과 제2 표시 영역(703)이 중첩되는 영역(750))에 기반하여 공유 영역을 결정할 수 있다. 일 실시예에 따르면, 프로세서(120)는 대상 전자 장치로부터 대상 전자 장치에 관련된 지정된 정보(예: 제1 지정된 정보)(예: 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보)를 획득할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 지정된 정보(예: 제2 지정된 정보)(예: 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보))와 대상 전자 장치의 지정된 정보에 기반하여 공유 영역을 계산하고, 계산하는 결과에 기반하여 공유 영역을 결정할 수 있다. 일 실시예에 따라, 공유 영역을 결정하는 것과 관련하여 후술하는 도면들을 참조하여 설명된다.Inoperation 605, the processor (120) may perform an operation of determining a shared area based on display areas (e.g., the first display area (701) and the second display area (703)) of the electronic device (101) (e.g., the first electronic device (410)) and the target electronic device (e.g., the second electronic device (420)). According to one embodiment, the processor (120) may determine the shared area based on at least a portion of an overlapping area between the first display area (701) of the first electronic device (410) and the second display area (703) of the second electronic device (420) (e.g., an overlapping area (750) between the first display area (701) and the second display area (703) of FIG. 7C ). According to one embodiment, the processor (120) may obtain specified information (e.g., first specified information) related to the target electronic device (e.g., device capability information, location information, and/or display area information) from the target electronic device. According to one embodiment, the processor (120) may calculate a shared area based on specified information (e.g., second specified information) (e.g., device capability information, location information, and/or display area information)) of the electronic device (101) and specified information of the target electronic device, and determine the shared area based on the result of the calculation. According to one embodiment, the determination of the shared area is described with reference to the drawings described below.

동작 607에서, 프로세서(120)는 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작을 수행할 수 있다. 일 실시예에서, 공유 정보는 컨텐츠(예: 공유 컨텐츠)의 표시 정보(예: 레이아웃 정보) 및/또는 공유 영역 정보(예: 좌표 정보 또는 배치(또는 방향) 정보)를 포함할 수 있다. 일 실시예에 따라, 공유 정보 및 공유 정보를 생성하는 것과 관련하여 후술하는 도면들을 참조하여 설명된다.Inoperation 607, the processor (120) may perform an operation of generating sharing information related to sharing of content based on a shared area. In one embodiment, the shared information may include display information (e.g., layout information) of the content (e.g., shared content) and/or shared area information (e.g., coordinate information or arrangement (or direction) information). According to one embodiment, the sharing information and the generation of the sharing information are described with reference to the drawings described below.

동작 609에서, 프로세서(120)는 공유 영역에 기반하여 컨텐츠(예: 공유 컨텐츠)를 표시하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)(예: 제1 전자 장치(410))의 표시 영역(예: 제1 표시 영역(701))을 통해 표시되는 컨텐츠(예: 적어도 하나의 컨텐츠 중 사용자에 의해 지정된 공유 대상 컨텐츠(예: 공유 컨텐츠))를 공유 영역의 위치(또는 방향)로 이동 배치하여 표시할 수 있다. 이의 예가 도 7c에 도시된다.Inoperation 609, the processor (120) may perform an operation of displaying content (e.g., shared content) based on the shared area. According to one embodiment, the processor (120) may display content (e.g., content to be shared among at least one content designated by a user (e.g., shared content)) displayed through a display area (e.g., first display area (701)) of the electronic device (101) (e.g., first electronic device (410)) by moving and arranging the content to a location (or direction) of the shared area. An example of this is illustrated in FIG. 7c.

도 7c를 참조하면, 제1 전자 장치(410)는 제1 전자 장치(410)의 제1 표시 영역(701)에서, 결정된 공유 영역(750)에 컨텐츠(730)를 이동 배치하여 표시할 수 있다. 일 실시예에 따라, 제1 전자 장치(410)에서 공유 영역에 컨텐츠를 이동 배치하여 표시하는 것과 관련하여 후술하는 도면들을 참조하여 설명된다.Referring to FIG. 7c, the first electronic device (410) can display content (730) by moving it to the determined shared area (750) in the first display area (701) of the first electronic device (410). According to one embodiment, the display of content by moving it to the shared area in the first electronic device (410) is described with reference to the drawings described below.

동작 611에서, 프로세서(120)는 컨텐츠(예: 공유 컨텐츠) 및 공유 정보를 대상 전자 장치로 전송하여, 대상 전자 장치가 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는, 통신 회로를 이용하여, 대상 전자 장치(예: 제2 전자 장치(420))로 컨텐츠 및 공유 정보를 전송할 수 있다. 일 실시예에 따르면, 대상 전자 장치(예: 제2 전자 장치(420))는 전자 장치(101)(예: 제1 전자 장치(410))로부터 컨텐츠와 공유 정보를 수신하고, 컨텐츠를 공유 정보에 기반하여 공유 영역에 표시할 수 있다. 예를 들어, 대상 전자 장치는 수신된 컨텐츠를 대상 전자 장치의 표시 영역(예: 제2 표시 영역(703))에서, 공유 영역에 대응하는 위치(또는 방향)에 배치하여 표시할 수 있다. 이의 예가 도 7c에 도시된다.Inoperation 611, the processor (120) may perform an operation of transmitting content (e.g., shared content) and shared information to a target electronic device, and controlling the target electronic device to display the content based on the shared area. According to one embodiment, the processor (120) may transmit the content and the shared information to the target electronic device (e.g., the second electronic device (420)) using a communication circuit. According to one embodiment, the target electronic device (e.g., the second electronic device (420)) may receive the content and the shared information from the electronic device (101) (e.g., the first electronic device (410)), and display the content in the shared area based on the shared information. For example, the target electronic device may display the received content by placing it in a position (or direction) corresponding to the shared area in a display area (e.g., the second display area (703)) of the target electronic device. An example of this is illustrated in FIG. 7c.

도 7c를 참조하면, 제2 전자 장치(420)는 제2 전자 장치(420)의 제2 표시 영역(703)에서, 공유 영역(750)에 컨텐츠(730)를 배치하여 표시할 수 있다. 일 실시예에 따라, 제2 전자 장치(420)에서 공유 영역에 컨텐츠를 배치하여 표시하는 것과 관련하여 후술하는 도면들을 참조하여 설명된다.Referring to FIG. 7c, the second electronic device (420) can place and display content (730) in the shared area (750) in the second display area (703) of the second electronic device (420). According to one embodiment, the display of content by placing it in the shared area in the second electronic device (420) is described with reference to the drawings described below.

본 개시의 일 실시예에 따르면, 제1 전자 장치(410)와 제2 전자 장치(420)는, 도 7c에 예시한 바와 같이, 제1 사용자(710)(예: 제1 전자 장치(410))와 제2 사용자(720)(예: 제2 전자 장치(420))의 물리적 위치를 기반으로, 제1 표시 영역(701)(예: 제1 가상 환경)과 제2 표시 영역(703)(예: 제2 가상 환경)이 중첩되는 위치에, 공유 컨텐츠를 표시할 공유 영역(750)(예: 가상 환경 영역)을 각각 설정할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)와 제2 전자 장치(420)는 각각의 표시 영역에 대해 설정된 공유 영역(750)에 기반하여 공유 컨텐츠(730)를 각각 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 전자 장치(410)의 디스플레이에 기반한 제1 표시 영역(701)에서 공유 영역에 대응하는 위치에 공유 컨텐츠(730)를 이동하여 표시하도록 동작할 수 있다. 예를 들어, 제2 전자 장치(420)는 제2 전자 장치(420)의 디스플레이에 기반한 제2 표시 영역(703)에서 공유 영역에 대응하는 위치에 공유 컨텐츠(730)를 표시하도록 동작할 수 있다.According to one embodiment of the present disclosure, the first electronic device (410) and the second electronic device (420) may set a shared area (750) (e.g., a virtual environment area) for displaying shared content at a location where the first display area (701) (e.g., the first virtual environment) and the second display area (703) (e.g., the second virtual environment) overlap, based on the physical locations of the first user (710) (e.g., the first electronic device (410)) and the second user (720) (e.g., the second electronic device (420)), as illustrated in FIG. 7C . According to one embodiment, the first electronic device (410) and the second electronic device (420) may each display shared content (730) based on the shared area (750) set for each display area. For example, the first electronic device (410) may operate to move and display shared content (730) to a location corresponding to the shared area in a first display area (701) based on the display of the first electronic device (410). For example, the second electronic device (420) may operate to display shared content (730) to a location corresponding to the shared area in a second display area (703) based on the display of the second electronic device (420).

일 실시예에 따라, 동작 607, 동작 609 및 동작 611은 도시된 순서에 제한하지 않으며, 동작 607, 동작 609 및 동작 611은 순차적으로, 역순차적으로, 또는 병렬적으로 수행될 수 있다.In one embodiment,operations 607, 609, and 611 are not limited to the order illustrated, andoperations 607, 609, and 611 may be performed sequentially, reversely, or in parallel.

도 8은 본 개시의 일 실시예에 따른 전자 장치들 간에 컨텐츠 공유 관련 동작을 제공하는 동작의 예를 도시하는 도면이다.FIG. 8 is a diagram illustrating an example of an operation for providing content sharing related operations between electronic devices according to one embodiment of the present disclosure.

일 실시예에 따라, 도 8의 예시에서는 설명의 편의를 위해 제1 전자 장치(410)와 제2 전자 장치(420)에 기반하여 제1 동작(예: 송신측 동작)과 제2 동작(예: 수신측 동작)을 구분하여 설명하지만, 본 개시가 이에 제한하는 것은 아니다. 예를 들어, 전자 장치(101)는 컨텐츠 공유 관련 동작에 따른 제1 동작과 제2 동작을 모두 수행 가능할 수 있다.According to one embodiment, in the example of FIG. 8, for convenience of explanation, the first operation (e.g., transmitting operation) and the second operation (e.g., receiving operation) are described separately based on the first electronic device (410) and the second electronic device (420), but the present disclosure is not limited thereto. For example, the electronic device (101) may be capable of performing both the first operation and the second operation according to the content sharing-related operation.

일 실시예에 따르면, 도 8에서 설명되는 동작은, 예를 들어, 도 6 내지 도 7c에서 설명된 동작들에 결합하여 휴리스틱하게 수행되거나, 설명된 동작의 적어도 일부 동작을 대체하고 적어도 일부 다른 동작에 결합하여 휴리스틱하게 수행되거나, 설명된 동작들의 적어 일부 동작의 상세 동작으로 휴리스틱하게 수행될 수 있다.According to one embodiment, the operations described in FIG. 8 may be performed heuristically, for example, in combination with the operations described in FIGS. 6 to 7c, or heuristically performed as a replacement for at least some of the operations described and combined with at least some other operations, or heuristically performed as a detailed operation of at least some of the operations described.

도 8을 참조하면, 동작 801에서, 제1 전자 장치(410)는 컨텐츠를 표시하는 동작을 수행할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제1 전자 장치(410)의 디스플레이(예: 도 1 또는 도 5의 디스플레이 모듈(160))를 통해 가상 환경에 대응하는 실행 화면(예: AR 화면 또는 VR 화면)을 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 실행 화면을 통해 현실 세계(또는 실세계) 또는 가상 세계의 적어도 일부에 겹쳐진 컨텐츠를 제공할 수 있다. 일 실시예에 따르면, 컨텐츠는 사용자의 시야각 상에서 보여지는 적어도 하나의 가상 객체를 포함할 수 있다. 일 실시예에서, 컨텐츠는 제1 전자 장치(410)의 디스플레이를 통해 실행된 어플리케이션에 대응하는 그래픽 데이터가 가상 객체로 제공되는 것일 수 있다.Referring to FIG. 8, in operation 801, the first electronic device (410) may perform an operation of displaying content. According to one embodiment, the first electronic device (410) may display an execution screen (e.g., an AR screen or a VR screen) corresponding to a virtual environment through the display of the first electronic device (410) (e.g., the display module (160) of FIG. 1 or FIG. 5). According to one embodiment, the first electronic device (410) may provide content overlapping at least a part of the real world (or the real world) or the virtual world through the execution screen. According to one embodiment, the content may include at least one virtual object visible on the user's field of view. In one embodiment, the content may be graphic data corresponding to an application executed through the display of the first electronic device (410) provided as a virtual object.

동작 803에서, 제1 전자 장치(410)는 컨텐츠 공유를 위한 트리거를 감지하는 동작을 수행할 수 있다. 일 실시예에 따라, 컨텐츠 공유를 위한 트리거는 컨텐츠를 공유하기 위한 지정된 사용자 입력(예: 컨텐츠 공유 또는 외부 전자 장치 연결에 관련된 사용자 입력)에 기반하여 감지될 수 있다. 예를 들어, 제1 전자 장치(410)는 디스플레이를 통해 표시되는 적어도 하나의 컨텐츠 중, 공유할 공유 컨텐츠가 선택되고, 선택된 공유 컨텐츠의 공유를 요청하는 사용자 입력에 기반하여 트리거를 판단할 수 있다. 예를 들어, 제1 전자 장치(410)는 디스플레이를 통해 적어도 하나의 컨텐츠를 표시하는 동안, 공유 컨텐츠를 선택하고, 외부 전자 장치와 연결을 요청(또는 연결할 외부 전자 장치를 선택)하는 사용자 입력에 기반하여 트리거를 판단할 수 있다.In operation 803, the first electronic device (410) may perform an operation of detecting a trigger for sharing content. According to one embodiment, the trigger for sharing content may be detected based on a designated user input for sharing content (e.g., a user input related to sharing content or connecting an external electronic device). For example, the first electronic device (410) may determine a trigger based on a user input requesting sharing of the selected shared content, when shared content is selected from among at least one content displayed through the display. For example, the first electronic device (410) may determine a trigger based on a user input requesting sharing of the selected shared content (or selecting the external electronic device to be connected) while displaying at least one content through the display.

동작 805에서, 제1 전자 장치(410)는 트리거를 감지하는 것에 기반하여, 지정된 외부 전자 장치(예: 제2 전자 장치(420))와 연결(또는 페어링)하는 동작을 수행할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 가상 환경에 대응하는 실행 화면(예: 제1 표시 영역에 기반한 컨텐츠)을 표시하는 동안(예: 컨텐츠를 표시하는 동안) 제1 전자 장치(410)와 동일한 현실 공간(예: 동일한 물리적 공간)에 있는(예: 제1 전자 장치(410)에 근접해 있는) 외부 전자 장치(또는 주변 전자 장치) 중 지정된 대상의 제2 전자 장치(420)와 연결하는 동작을 수행할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 지정된 통신 방식(예: 근거리 통신)에 기반하여 제2 전자 장치(420)에 연결 요청을 전송하고, 제2 전자 장치(420)로부터 연결 요청에 대응하는 연결 응답을 수신하는 것에 기반하여 제2 전자 장치(420)와 연결할 수 있다.In operation 805, the first electronic device (410) may perform an operation to connect (or pair) with a designated external electronic device (e.g., the second electronic device (420)) based on detecting a trigger. According to one embodiment, the first electronic device (410) may perform an operation to connect with a designated target second electronic device (420) among external electronic devices (or peripheral electronic devices) that are in the same real space (e.g., the same physical space) as the first electronic device (410) (e.g., in proximity to the first electronic device (410)) while displaying an execution screen (e.g., content based on the first display area) corresponding to a virtual environment (e.g., while displaying content). According to one embodiment, the first electronic device (410) may transmit a connection request to the second electronic device (420) based on a designated communication method (e.g., short-range communication), and may connect with the second electronic device (420) based on receiving a connection response corresponding to the connection request from the second electronic device (420).

동작 807에서, 제2 전자 장치(420)는 제1 전자 장치(410)와 연결에 기반하여, 지정된 정보(예: 제1 지정된 정보)를 제1 전자 장치(410)로 전송하는 동작을 수행할 수 있다. 일 실시예에서, 지정된 정보는 제1 전자 장치(410)와 제2 전자 장치(420) 간에 컨텐츠 공유 동작 시에 미리 약속된 정보를 나타낼 수 있다. 일 실시예에 따라, 지정된 정보는 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보를 포함할 수 있다.In operation 807, the second electronic device (420) may perform an operation of transmitting designated information (e.g., first designated information) to the first electronic device (410) based on the connection with the first electronic device (410). In one embodiment, the designated information may represent information agreed upon in advance during a content sharing operation between the first electronic device (410) and the second electronic device (420). According to one embodiment, the designated information may include device capability information, location information, and/or display area information.

일 실시예에서, 장치 능력 정보는 전자 장치(101)(예: 제2 전자 장치(420))가 가상 환경에서 컨텐츠를 표시할 수 있는 공간(예: 2차원 공간 또는 3차원 공간)에 관한 공간 정보를 포함할 수 있다. 일 실시예에서, 공간 정보는 전자 장치(101)(예: 제2 전자 장치(420))의 위치를 기준으로 지정된 거리(또는 반경)를 갖는 공간 또는 사용자 설정에 따른 공간에 대한 정보를 포함할 수 있다.In one embodiment, the device capability information may include spatial information about a space (e.g., a two-dimensional space or a three-dimensional space) in which the electronic device (101) (e.g., the second electronic device (420)) can display content in a virtual environment. In one embodiment, the spatial information may include information about a space having a specified distance (or radius) based on a location of the electronic device (101) (e.g., the second electronic device (420)) or a space according to a user setting.

일 실시예에서, 위치 정보는 현실 공간에서 전자 장치(101)(예: 제2 전자 장치(420))의 위치에 대한 정보를 포함할 수 있다. 일 실시예에서, 위치 정보는 좌표 정보로 나타낼 수 있다.In one embodiment, the location information may include information about the location of the electronic device (101) (e.g., the second electronic device (420)) in real space. In one embodiment, the location information may be represented as coordinate information.

일 실시예에서, 표시 영역 정보는 전자 장치(101)(예: 제2 전자 장치(420))의 장치 능력 정보에 기반한 공간에서 사용자의 시야각(FOV)(또는 사용자가 바라보는 사용자 전방의 실세계)에 기반하여 적어도 하나의 컨텐츠가 표시되는 표시 영역(예: 제2 표시 영역)에 대한 정보를 포함할 수 있다.In one embodiment, the display area information may include information about a display area (e.g., a second display area) in which at least one content is displayed based on the user's field of view (FOV) (or the real world in front of the user as viewed by the user) in space based on device capability information of the electronic device (101) (e.g., the second electronic device (420)).

동작 809에서, 제1 전자 장치(410)는 중첩 영역을 판단하는 동작을 수행할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제1 전자 장치(410)의 표시 영역(예: 제1 표시 영역)과 제2 전자 장치(420)의 표시 영역(예: 제2 표시 영역)에 기반하여, 서로 중첩되는 영역을 판단할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제2 전자 장치(420)로부터 수신된(또는 획득된) 지정된 정보(예: 제1 지정된 정보)와 제1 전자 장치(410)에 관련된 지정된 정보(예: 제2 지정된 정보)에 기반하여 중첩 영역을 판단할 수 있다. 일 실시예에 따라, 중첩 영역을 판단하는 동작과 관련하여 후술하는 도면을 참조하여 설명된다.In operation 809, the first electronic device (410) may perform an operation of determining an overlapping area. According to one embodiment, the first electronic device (410) may determine an overlapping area based on a display area of the first electronic device (410) (e.g., a first display area) and a display area of the second electronic device (420) (e.g., a second display area). According to one embodiment, the first electronic device (410) may determine the overlapping area based on designated information (e.g., first designated information) received (or acquired) from the second electronic device (420) and designated information related to the first electronic device (410) (e.g., second designated information). According to one embodiment, an operation of determining an overlapping area will be described with reference to the drawings to be described below.

동작 811에서, 제1 전자 장치(410)는 중첩 영역에 기반하여 공유 영역을 결정하는 동작을 수행할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제1 전자 장치(410)의 제1 표시 영역과 제2 전자 장치(420)의 제2 표시 영역 간에 중첩되는 적어도 일부 영역에 기반하여 컨텐츠(예: 공유 컨텐츠)를 배치하여 표시할 공유 영역을 계산할 수 있다. 일 실시예에 따라, 공유 영역은 중첩 영역의 범위에 대응하는 영역(예: 중첩 영역 = 공유 영역)이거나, 또는 중첩 영역의 범위보다 작은 영역(예: 중첩 영역 > 공유 영역)일 수 있다. 일 실시예에 따라, 중첩 영역에 기반하여 공유 영역을 결정하는 동작과 관련하여 후술하는 도면을 참조하여 설명된다.In operation 811, the first electronic device (410) may perform an operation of determining a shared area based on an overlapping area. According to one embodiment, the first electronic device (410) may calculate a shared area on which content (e.g., shared content) is to be placed and displayed based on at least a portion of an area overlapping between a first display area of the first electronic device (410) and a second display area of the second electronic device (420). According to one embodiment, the shared area may be an area corresponding to a range of the overlapping area (e.g., overlapping area = shared area), or may be an area smaller than the range of the overlapping area (e.g., overlapping area > shared area). According to one embodiment, an operation of determining a shared area based on the overlapping area will be described with reference to the drawings described below.

동작 813에서, 제1 전자 장치(410)는 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작을 수행할 수 있다. 일 실시예에서, 공유 정보는 컨텐츠(예: 공유 컨텐츠)의 표시 정보(예: 레이아웃 정보) 및/또는 공유 영역 정보(예: 좌표 정보 또는 배치(또는 방향) 정보)를 포함할 수 있다. 일 실시예에 따라, 공유 정보 및 공유 정보를 생성하는 것과 관련하여 후술하는 도면을 참조하여 설명된다.In operation 813, the first electronic device (410) may perform an operation of generating sharing information related to sharing of content based on a shared area. In one embodiment, the shared information may include display information (e.g., layout information) of the content (e.g., shared content) and/or shared area information (e.g., coordinate information or arrangement (or direction) information). According to one embodiment, the sharing information and the generation of the sharing information are described with reference to the drawings described below.

동작 815에서, 제1 전자 장치(410)는 공유 영역에 기반하여 컨텐츠(예: 공유 컨텐츠)를 표시하는 동작을 수행할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제1 전자 장치(410)의 표시 영역(예: 제1 표시 영역)에서 공유 영역에 대응하는 위치에 기반하여 컨텐츠를 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제1 표시 영역 내에서 표시 중인 컨텐츠(예: 공유 컨텐츠)를 제1 표시 영역 내에서 공유 영역의 위치(또는 방향)로 이동 배치하여 표시할 수 있다.In operation 815, the first electronic device (410) may perform an operation of displaying content (e.g., shared content) based on the shared area. According to one embodiment, the first electronic device (410) may display content based on a location corresponding to the shared area in a display area (e.g., the first display area) of the first electronic device (410). According to one embodiment, the first electronic device (410) may display content (e.g., shared content) being displayed in the first display area by moving and arranging it to a location (or direction) of the shared area in the first display area.

동작 817에서, 제1 전자 장치(410)는 컨텐츠(예: 공유 컨텐츠) 및 공유 정보를 제2 전자 장치(420)로 전송하는 동작을 수행할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 컨텐츠 및 공유 정보 전송에 기반하여, 제2 전자 장치(420)가 제2 전자 장치(420)의 제2 표시 영역 내에서 지정되는 공유 영역에 기반하여 컨텐츠를 표시하도록 할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는, 통신 회로를 이용하여, 제2 전자 장치(420)로 컨텐츠 및 공유 정보를 전송할 수 있다. 일 실시예에 따르면, 컨텐츠는, 예를 들어, 미러링 공유, 실행 링크(예: 컨텐츠 정보) 공유, 또는 컨텐츠 공유(예: 컨텐츠 자체를 전송)에 기반하여 제2 전자 장치(420)와 공유되고, 제2 전자 장치(420)에서 컨텐츠를 수신하여 컨텐츠를 스트리밍으로 표시하거나, 컨텐츠를 저장하고 관련 어플리케이션의 실행에 기반하여 컨텐츠를 표시할 수 있다.In operation 817, the first electronic device (410) may perform an operation of transmitting content (e.g., shared content) and shared information to the second electronic device (420). According to one embodiment, the first electronic device (410) may cause the second electronic device (420) to display the content based on a shared area designated within a second display area of the second electronic device (420) based on the transmission of the content and the shared information. According to one embodiment, the first electronic device (410) may transmit the content and the shared information to the second electronic device (420) using a communication circuit. According to one embodiment, the content is shared with the second electronic device (420) based on, for example, mirroring sharing, sharing of an execution link (e.g., content information), or sharing of the content (e.g., transmitting the content itself), and the second electronic device (420) may receive the content and display the content by streaming it, or store the content and display the content based on execution of a related application.

동작 819에서, 제2 전자 장치(420)는 공유 영역에 기반하여 컨텐츠(예: 공유 컨텐츠)를 표시하는 동작을 수행할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 제2 전자 장치(420)의 표시 영역(예: 제2 표시 영역)에서 공유 영역에 대응하는 위치에 기반하여 컨텐츠를 표시할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 제2 표시 영역 내에서 공유 정보에 따라 지정된 공유 영역의 위치(또는 방향)에 컨텐츠를 배치하여 표시할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 제1 전자 장치(410)로부터 컨텐츠와 공유 정보를 수신하고, 컨텐츠를 공유 정보에 기반하여 공유 영역에 표시할 수 있다. 예를 들어, 제2 전자 장치(420)는 수신된 컨텐츠를 제2 전자 장치(420)의 제2 표시 영역에서, 공유 영역에 대응하는 위치(또는 방향)에 배치하여 표시할 수 있다.In operation 819, the second electronic device (420) may perform an operation of displaying content (e.g., shared content) based on the shared area. According to one embodiment, the second electronic device (420) may display the content based on a location corresponding to the shared area in the display area (e.g., the second display area) of the second electronic device (420). According to one embodiment, the second electronic device (420) may place and display the content at a location (or direction) of the shared area specified according to the shared information within the second display area. According to one embodiment, the second electronic device (420) may receive content and shared information from the first electronic device (410), and display the content in the shared area based on the shared information. For example, the second electronic device (420) may place and display the received content at a location (or direction) corresponding to the shared area in the second display area of the second electronic device (420).

동작 821에서, 제1 전자 장치(410) 및/또는 제2 전자 장치(420)는 사용자 입력을 공유할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410) 및/또는 제2 전자 장치(420)는, 각각, 공유 영역에 기반하여 표시 중인 컨텐츠에 기반한 사용자 입력(예: 컨텐츠 제어와 관련된 입력)을 수신하고, 사용자 입력에 대응하는 제어 정보(예: 실행 기능 정보, 사용자 입력이 수신된 좌표 정보, 입력 관련 정보(예: 터치와 같은 터치 제스처 정보))를 상대 전자 장치로 전송할 수 있다.In operation 821, the first electronic device (410) and/or the second electronic device (420) can share a user input. According to one embodiment, the first electronic device (410) and/or the second electronic device (420) can each receive a user input (e.g., an input related to content control) based on content being displayed based on a shared area, and transmit control information corresponding to the user input (e.g., execution function information, coordinate information where the user input was received, input related information (e.g., touch gesture information such as a touch)) to the counterpart electronic device.

동작 823과 동작 825에서, 제1 전자 장치(410)와 제2 전자 장치(420)는 사용자 입력에 기반하여, 컨텐츠에 사용자 입력에 대응하는 처리 결과를 반영하여 제공할 수 있다. 예를 들어, 제1 전자 장치(410)와 제2 전자 장치(420)는, 각각에 대응하는 사용자(예: 제1 사용자 및 제2 사용자)로부터 사용자 입력을 각각 수신할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)와 제2 전자 장치(420)는 사용자 입력을 상대 전자 장치와 공유하여, 실시간적으로 및/또는 협업적으로 사용자 입력에 대응하는 처리를 각각의 컨텐츠에 반영하여, 그 처리 결과를 대체적으로 동일 시점에 표시하도록 동작할 수 있다.In operation 823 and operation 825, the first electronic device (410) and the second electronic device (420) may provide content by reflecting a processing result corresponding to the user input based on the user input. For example, the first electronic device (410) and the second electronic device (420) may each receive a user input from a user corresponding to each other (e.g., the first user and the second user). According to one embodiment, the first electronic device (410) and the second electronic device (420) may share the user input with the counterpart electronic device, and may reflect the processing corresponding to the user input in real time and/or collaboratively in each content, and display the processing result generally at the same time.

본 개시의 일 실시예에 따르면, 제1 전자 장치(410)와 제2 전자 장치(420)는, 제1 사용자(710)(예: 제1 전자 장치(410))와 제2 사용자(720)(예: 제2 전자 장치(420))의 물리적 위치를 기반으로, 제1 표시 영역과 제2 표시 영역이 중첩되는 위치에, 공유 컨텐츠를 표시할 공유 영역을 각각 설정할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)와 제2 전자 장치(420)는 각각의 표시 영역에 대해 설정된 공유 영역에 기반하여 공유 컨텐츠를 각각 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 전자 장치(410)의 디스플레이에 기반한 제1 표시 영역에서 공유 영역에 대응하는 위치에 공유 컨텐츠를 이동하여 표시하도록 동작할 수 있다. 예를 들어, 제2 전자 장치(420)는 제2 전자 장치(420)의 디스플레이에 기반한 제2 표시 영역에서 공유 영역에 대응하는 위치에 공유 컨텐츠를 표시하도록 동작할 수 있다.According to one embodiment of the present disclosure, the first electronic device (410) and the second electronic device (420) may each set a shared area for displaying shared content at a location where the first display area and the second display area overlap, based on the physical locations of the first user (710) (e.g., the first electronic device (410)) and the second user (720) (e.g., the second electronic device (420)). According to one embodiment, the first electronic device (410) and the second electronic device (420) may each display the shared content based on the shared area set for each display area. For example, the first electronic device (410) may operate to move and display the shared content at a location corresponding to the shared area in the first display area based on the display of the first electronic device (410). For example, the second electronic device (420) may operate to display the shared content at a location corresponding to the shared area in the second display area based on the display of the second electronic device (420).

도 9는 본 개시의 일 실시예에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.FIG. 9 is a flowchart illustrating a method of operating an electronic device according to one embodiment of the present disclosure.

일 실시예에 따라, 도 9는 일 실시예에 따른 전자 장치(101)(예: 제1 전자 장치(410))가 가상 환경을 제공하는 동안, 전자 장치(101)와 연결되는 외부 전자 장치(예: 제2 전자 장치(420))와 컨텐츠를 공유하고, 컨텐츠를 전자 장치(101)와 외부 전자 장치 간의 위치(예: 상대적 위치)를 고려하여 표시하도록 지원하는 것과 관련된 동작의 예를 나타낼 수 있다. 예를 들어, 도 9에서는 전자 장치(101)의 컨텐츠를 외부 전자 장치로 제공(예: 전송 또는 공유)하고, 전자 장치(101)의 디스플레이 및 외부 전자 장치의 디스플레이에서 각각 지정된 영역(예: 공유 영역)에 기반하여 컨텐츠를 각각 표시하도록 제어하는 것과 관련된 동작의 예를 나타낼 수 있다.According to one embodiment, FIG. 9 may illustrate an example of an operation related to supporting an electronic device (101) (e.g., a first electronic device (410)) to provide a virtual environment while sharing content with an external electronic device (e.g., a second electronic device (420)) connected to the electronic device (101) and displaying the content in consideration of a location (e.g., a relative location) between the electronic device (101) and the external electronic device. For example, FIG. 9 may illustrate an example of an operation related to providing (e.g., transmitting or sharing) content of the electronic device (101) to the external electronic device and controlling the display of the electronic device (101) and the display of the external electronic device to display the content based on a designated area (e.g., a shared area) respectively.

본 개시의 일 실시예에 따른 전자 장치(101)에서 지원하는 동작 방법은, 예를 들어, 도 9에 도시된 흐름도에 따라 수행될 수 있다. 도 9에 도시된 흐름도는 전자 장치(101)의 동작의 일 실시예에 따른 흐름도에 불과하며, 적어도 일부 동작의 순서는 변경되거나 병렬적으로 수행되거나, 독립적인 동작으로 수행되거나, 또는 적어도 일부 다른 동작이 적어도 일부 동작에 보완적으로 수행될 수 있다. 본 개시의 일 실시예에 따르면, 동작 901 내지 동작 925는 전자 장치(101)의 적어도 하나의 프로세서(120)(예: 도 1 또는 도 5의 프로세서(120))에서 수행될 수 있다.The operation method supported by the electronic device (101) according to one embodiment of the present disclosure may be performed according to, for example, the flowchart illustrated in FIG. 9. The flowchart illustrated in FIG. 9 is merely a flowchart according to one embodiment of the operation of the electronic device (101), and the order of at least some operations may be changed, performed in parallel, performed as independent operations, or at least some other operations may be performed complementarily to at least some operations. According to one embodiment of the present disclosure, operations 901 to 925 may be performed by at least one processor (120) of the electronic device (101) (e.g., the processor (120) of FIG. 1 or FIG. 5 ).

일 실시예에 따르면, 도 9에서 설명되는 동작은, 예를 들어, 도 6 내지 도 8에서 설명된 동작들에 결합하여 휴리스틱하게 수행되거나, 설명된 동작의 적어도 일부 동작을 대체하고 적어도 일부 다른 동작에 결합하여 휴리스틱하게 수행되거나, 설명된 동작들의 적어 일부 동작의 상세 동작으로 휴리스틱하게 수행될 수 있다.According to one embodiment, the operations described in FIG. 9 may be performed heuristically, for example, in combination with the operations described in FIGS. 6 to 8, or heuristically performed as a replacement for at least some of the operations described and combined with at least some other operations, or heuristically performed as a detailed operation of at least some of the operations described.

도 9에 도시한 바와 같이, 일 실시예에 따른 전자 장치(101)가 수행하는 동작 방법은, 컨텐츠를 표시하는 동작(901), 컨텐츠 공유를 위한 트리거를 감지하는 동작(903), 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하는 동작(905), 제1 지정된 정보와 제2 지정된 정보를 획득하는 동작(907), 제1 지정된 정보와 제2 지정된 정보에 기반하여 중첩 영역을 계산하는 동작(909), 중첩 영역의 크기가 지정된 기준 값 이상인지 판단하는 동작(911), 중첩 영역의 크기가 지정된 기준 값 미만인 것에 기반하여 가이드를 표시하는 동작(913), 해당 동작을 수행하는 동작(915), 중첩 영역의 크기가 지정된 기준 값 이상인 것에 기반하여 중첩 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작(917), 중첩 영역에 기반하여 컨텐츠를 표시하고, 컨텐츠와 공유 정보를 대상 전자 장치로 전송하는 동작(919), 상대적 위치 변화를 모니터링하는 동작(921), 상대적 위치 변화 감지에 기반하여 중첩 영역을 재설정하는 동작(923), 및 재설정된 중첩 영역에 기반하여 컨텐츠를 표시하고, 변경된 공유 정보를 대상 전자 장치로 전송하는 동작(925)을 포함할 수 있다.As illustrated in FIG. 9, an operation method performed by an electronic device (101) according to an embodiment includes an operation of displaying content (901), an operation of detecting a trigger for sharing content (903), an operation of connecting with a target electronic device for sharing content (905), an operation of obtaining first specified information and second specified information (907), an operation of calculating an overlapping area based on the first specified information and the second specified information (909), an operation of determining whether the size of the overlapping area is greater than or equal to a specified reference value (911), an operation of displaying a guide based on the fact that the size of the overlapping area is less than or equal to a specified reference value (913), an operation of performing the operation (915), an operation of generating sharing information related to sharing of content based on the overlapping area based on the fact that the size of the overlapping area is greater than or equal to a specified reference value (917), an operation of displaying content based on the overlapping area and transmitting the content and the sharing information to the target electronic device (919), an operation of monitoring a relative position change (921), an operation of resetting the overlapping area based on the detection of the relative position change (923), and displaying content based on the reset overlapping area and changing the shared information. It may include an action (925) of transmitting information to a target electronic device.

도 9를 참조하면, 동작 901에서, 전자 장치(101)의 프로세서(120)는 컨텐츠를 표시하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)(예: 제1 전자 장치(410))의 디스플레이(예: 도 1 또는 도 5의 디스플레이 모듈(160))를 통해 가상 환경에 대응하는 실행 화면(예: AR 화면 또는 VR 화면)을 표시할 수 있다. 일 실시예에 따르면, 프로세서(120)는 실행 화면을 통해 현실 세계(또는 실세계) 또는 가상 세계의 적어도 일부에 겹쳐진 컨텐츠를 제공할 수 있다. 일 실시예에 따르면, 컨텐츠는 사용자의 시야각 상에서 보여지는 적어도 하나의 가상 객체를 포함할 수 있다. 일 실시예에서, 컨텐츠는 전자 장치(101)의 디스플레이를 통해 실행된 어플리케이션에 대응하는 그래픽 데이터가 가상 객체로 제공되는 것일 수 있다.Referring to FIG. 9, in operation 901, the processor (120) of the electronic device (101) may perform an operation of displaying content. According to one embodiment, the processor (120) may display an execution screen (e.g., an AR screen or a VR screen) corresponding to a virtual environment through a display (e.g., the display module (160) of FIG. 1 or FIG. 5) of the electronic device (101) (e.g., the first electronic device (410)). According to one embodiment, the processor (120) may provide content overlapping at least a part of the real world (or the real world) or the virtual world through the execution screen. According to one embodiment, the content may include at least one virtual object shown on the user's field of view. In one embodiment, the content may be graphic data corresponding to an application executed through the display of the electronic device (101) provided as a virtual object.

동작 903에서, 프로세서(120)는 컨텐츠 공유를 위한 트리거를 감지하는 동작을 수행할 수 있다. 일 실시예에 따라, 컨텐츠 공유를 위한 트리거는 컨텐츠를 공유하기 위한 지정된 사용자 입력(예: 컨텐츠 공유 또는 외부 전자 장치 연결에 관련된 사용자 입력)에 기반하여 감지될 수 있다. 예를 들어, 프로세서(120)는 디스플레이를 통해 표시되는 적어도 하나의 컨텐츠 중, 공유할 공유 컨텐츠가 선택되고, 선택된 공유 컨텐츠의 공유를 요청하는 사용자 입력에 기반하여 트리거를 판단할 수 있다. 예를 들어, 프로세서(120)는 디스플레이를 통해 적어도 하나의 컨텐츠를 표시하는 동안, 공유 컨텐츠를 선택하고, 외부 전자 장치와 연결을 요청(또는 연결할 외부 전자 장치를 선택)하는 사용자 입력에 기반하여 트리거를 판단할 수 있다.In operation 903, the processor (120) may perform an operation of detecting a trigger for sharing content. According to one embodiment, the trigger for sharing content may be detected based on a designated user input for sharing content (e.g., a user input related to sharing content or connecting an external electronic device). For example, the processor (120) may determine a trigger based on a user input requesting sharing of the selected shared content, when shared content is selected from among at least one content displayed through the display. For example, the processor (120) may determine a trigger based on a user input requesting sharing of the selected shared content (or selecting an external electronic device to be connected) while displaying at least one content through the display.

동작 905에서, 프로세서(120)는 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 가상 환경에 대응하는 실행 화면(예: 제1 표시 영역에 기반한 컨텐츠)을 표시하는 동안(예: 컨텐츠를 표시하는 동안) 전자 장치(101)와 동일한 현실 공간(예: 동일한 물리적 공간)에 있는(예: 전자 장치(101)에 근접해 있는) 외부 전자 장치(또는 주변 전자 장치) 중 지정된 대상의 대상 전자 장치와 연결하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 지정된 통신 방식(예: 근거리 통신)에 기반하여 대상 전자 장치에 연결 요청을 전송하고, 대상 전자 장치로부터 연결 요청에 대응하는 연결 응답을 수신하는 것에 기반하여 대상 전자 장치와 연결할 수 있다.In operation 905, the processor (120) may perform an operation to connect with a target electronic device for sharing content. According to one embodiment, the processor (120) may perform an operation to connect with a target electronic device of a specified target among external electronic devices (or peripheral electronic devices) that are in the same real space (e.g., the same physical space) as the electronic device (101) (e.g., in proximity to the electronic device (101)) while displaying an execution screen (e.g., content based on the first display area) corresponding to a virtual environment (e.g., while displaying content). According to one embodiment, the processor (120) may transmit a connection request to the target electronic device based on a specified communication method (e.g., short-range communication) and connect with the target electronic device based on receiving a connection response corresponding to the connection request from the target electronic device.

동작 907에서, 프로세서(120)는 제1 지정된 정보와 제2 지정된 정보를 획득하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 지정된 통신 방식을 통해, 대상 전자 장치가 전송하는 제1 지정된 정보를 수신할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 메모리에 저장된 제2 지정된 정보를 획득할 수 있다. 일 실시예에 따라, 제1 지정된 정보는 대상 전자 장치에 관련된 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보를 포함할 수 있다. 일 실시예에 따라, 제2 지정된 정보는 전자 장치(1010)에 관련된 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보를 포함할 수 있다.In operation 907, the processor (120) may perform an operation of acquiring first designated information and second designated information. According to one embodiment, the processor (120) may receive the first designated information transmitted by the target electronic device through a designated communication method. According to one embodiment, the processor (120) may acquire second designated information stored in the memory of the electronic device (101). According to one embodiment, the first designated information may include device capability information, location information, and/or display area information related to the target electronic device. According to one embodiment, the second designated information may include device capability information, location information, and/or display area information related to the electronic device (1010).

동작 909에서, 프로세서(120)는 제1 지정된 정보와 제2 지정된 정보에 기반하여 중첩 영역을 계산하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 표시 영역(예: 제1 표시 영역)과 대상 전자 장치의 표시 영역(예: 제2 표시 영역)에 기반하여, 서로 중첩되는 영역을 판단할 수 있다. 일 실시예에 따르면, 프로세서(120)는 대상 전자 장치로부터 수신된(또는 획득된) 제1 지정된 정보와 전자 장치(101)에 관련된 제2 지정된 정보에 기반하여 중첩 영역을 판단할 수 있다. 일 실시예에 따라, 중첩 영역을 판단하는 동작과 관련하여 후술하는 도면을 참조하여 설명된다.In operation 909, the processor (120) may perform an operation of calculating an overlapping area based on the first specified information and the second specified information. According to one embodiment, the processor (120) may determine an overlapping area based on a display area of the electronic device (101) (e.g., a first display area) and a display area of the target electronic device (e.g., a second display area). According to one embodiment, the processor (120) may determine the overlapping area based on the first specified information received (or acquired) from the target electronic device and the second specified information related to the electronic device (101). According to one embodiment, an operation of determining an overlapping area will be described with reference to the drawings described below.

동작 911에서, 프로세서(120)는 중첩 영역의 크기가 지정된 기준 값 이상인지 판단하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 중첩 영역의 크기에 따라 해당 중첩 영역에 기반하여 컨텐츠를 공유할 지 여부를 판단할 수 있다. 예를 들어, 프로세서(120)는 중첩 영역의 크기가 지정된 기준 값(예: 제1 지정된 기준 값) 이상인 경우, 중첩 영역에 기반하여 컨텐츠를 배치하여 표시하도록 동작할 수 있다.In operation 911, the processor (120) may perform an operation of determining whether the size of the overlapping area is greater than or equal to a specified reference value. According to one embodiment, the processor (120) may determine whether to share content based on the overlapping area according to the size of the overlapping area. For example, if the size of the overlapping area is greater than or equal to a specified reference value (e.g., a first specified reference value), the processor (120) may operate to display content by arranging it based on the overlapping area.

동작 911에서, 프로세서(120)는 중첩 영역의 크기가 지정된 기준 값 미만인 것을 판단하는 경우(예: 동작 911의 ‘아니오’), 동작 913에서, 가이드를 표시하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 디스플레이 상에 표시된 AR 화면 상에, 대상 전자 장치와 중첩 영역 설정을 위해 위치를 이동(예: 서로 근접)하도록 가이드하는 가이드 정보를 제공할 수 있다. 일 실시예에 따라, 가이드 정보는 시각적 정보 및/또는 청각적 정보에 기반하여 제공될 수 있다.In operation 911, if the processor (120) determines that the size of the overlapping area is less than a specified reference value (e.g., ‘No’ in operation 911), in operation 913, the processor (120) may perform an operation of displaying a guide. According to one embodiment, the processor (120) may provide guide information for guiding the electronic device to move a location (e.g., move closer to each other) to set an overlapping area with the target electronic device on the AR screen displayed on the display of the electronic device (101). According to one embodiment, the guide information may be provided based on visual information and/or auditory information.

동작 915에서, 프로세서(120)는 해당 동작 수행을 처리할 수 있다. 일 실시예에 따르면, 프로세서(120)는 가이드에 따른 사용자 입력에 기반하여 관련 동작을 수행할 수 있다. 예를 들어, 프로세서(120)는 컨텐츠 공유에 관련된 동작을 종료할 수 있다. 예를 들어, 프로세서(120)는 가이드에 대한 사용자 응답에 기반하여, 전자 장치(101)와 대상 전자 장치 간의 위치 변화를 모니터링 하고, 중첩 영역을 결정하기 위한 전술한 동작을 수행할 수 있다.In operation 915, the processor (120) may process the execution of the corresponding operation. According to one embodiment, the processor (120) may perform a related operation based on a user input according to the guide. For example, the processor (120) may terminate an operation related to content sharing. For example, the processor (120) may monitor a change in position between the electronic device (101) and the target electronic device based on a user response to the guide, and perform the aforementioned operation to determine an overlapping area.

동작 911에서, 프로세서(120)는 중첩 영역의 크기가 지정된 기준 값 이상인 것을 판단하는 경우(예: 동작 911의 ‘예’), 동작 917에서, 중첩 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작을 수행할 수 있다. 일 실시예에서, 공유 정보는 컨텐츠(예: 공유 컨텐츠)의 표시 정보(예: 레이아웃 정보) 및/또는 공유 영역 정보(예: 좌표 정보 또는 배치(또는 방향) 정보)를 포함할 수 있다. 일 실시예에 따라, 공유 정보 및 공유 정보를 생성하는 것과 관련하여 후술하는 도면을 참조하여 설명된다.In operation 911, if the processor (120) determines that the size of the overlapping area is greater than or equal to a specified reference value (e.g., ‘Yes’ in operation 911), in operation 917, the processor may perform an operation of generating sharing information related to sharing of content based on the overlapping area. In one embodiment, the sharing information may include display information (e.g., layout information) of the content (e.g., shared content) and/or shared area information (e.g., coordinate information or arrangement (or direction) information). According to one embodiment, the sharing information and the generation of the sharing information are described with reference to the drawings described below.

동작 919에서, 프로세서(120)는 중첩 영역에 기반하여 컨텐츠를 표시하고, 컨텐츠와 공유 정보를 대상 전자 장치로 전송하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 표시 영역(예: 제1 표시 영역)에서 중첩 영역에 대응하는 위치에 기반하여 컨텐츠를 표시할 수 있다. 일 실시예에 따르면, 프로세서(120)는 제1 표시 영역 내에서 표시 중인 컨텐츠(예: 공유 컨텐츠)를 제1 표시 영역 내에서 중첩 영역의 위치(또는 방향)로 이동 배치하여 표시할 수 있다.In operation 919, the processor (120) may perform an operation of displaying content based on the overlapping area and transmitting the content and shared information to the target electronic device. According to one embodiment, the processor (120) may display content based on a position corresponding to the overlapping area in a display area (e.g., a first display area) of the electronic device (101). According to one embodiment, the processor (120) may move and display content (e.g., shared content) being displayed in the first display area to a position (or direction) of the overlapping area in the first display area.

일 실시예에 따르면, 프로세서(120)는 컨텐츠(예: 공유 컨텐츠) 및 공유 정보를 대상 전자 장치로 전송하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 컨텐츠 및 공유 정보 전송에 기반하여, 대상 전자 장치가 대상 전자 장치의 제2 표시 영역 내에서 지정되는 공유 영역에 기반하여 컨텐츠를 표시하도록 제어할 수 있다. 일 실시예에 따르면, 프로세서(120)는, 통신 회로를 이용하여, 대상 전자 장치로 컨텐츠 및 공유 정보를 전송할 수 있다. 일 실시예에 따르면, 컨텐츠는, 예를 들어, 미러링 공유, 실행 링크(예: 컨텐츠 정보) 공유, 또는 컨텐츠 공유(예: 컨텐츠 자체를 전송)에 기반하여 대상 전자 장치와 공유되고, 대상 전자 장치에서 컨텐츠를 수신하여 컨텐츠를 스트리밍으로 표시하거나, 컨텐츠를 저장하고 관련 어플리케이션의 실행에 기반하여 컨텐츠를 표시할 수 있다. 일 실시예에 따르면, 컨텐츠는, 상기 대상 전자 장치에 의해 스트리밍으로 표시될 수 있다. 일 실시예에 따르면, 컨텐츠는, 대상 전자 장치에 의해 저장되고, 대상 전자 장치에서 관련 어플리케이션의 실행에 기반하여 표시될 수 있다.According to one embodiment, the processor (120) may perform an operation of transmitting content (e.g., shared content) and shared information to the target electronic device. According to one embodiment, the processor (120) may control the target electronic device to display the content based on a shared area designated within a second display area of the target electronic device based on the transmission of the content and the shared information. According to one embodiment, the processor (120) may transmit the content and the shared information to the target electronic device using a communication circuit. According to one embodiment, the content is shared with the target electronic device based on, for example, mirroring sharing, sharing of an execution link (e.g., content information), or content sharing (e.g., transmitting the content itself), and the target electronic device may receive the content and display the content by streaming, or store the content and display the content based on execution of a related application. According to one embodiment, the content may be displayed by streaming by the target electronic device. According to one embodiment, the content may be stored by the target electronic device and displayed based on execution of a related application on the target electronic device.

동작 921에서, 프로세서(120)는 상대적 위치 변화를 모니터링하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)와 대상 전자 장치 간에 컨텐츠 공유가 이루어진 상황에서, 전자 장치(101)와 대상 전자 장치의 간의 상대적 위치 변화를 실시간으로 또는 주기적으로 모니터링할 수 있다.In operation 921, the processor (120) may perform an operation of monitoring a relative position change. According to one embodiment, the processor (120) may monitor a relative position change between the electronic device (101) and the target electronic device in real time or periodically in a situation where content is shared between the electronic device (101) and the target electronic device.

동작 923에서, 프로세서(120)는 상대적 위치 변화 감지에 기반하여 중첩 영역을 재설정하는 동작을 수행할 수 있다.At operation 923, the processor (120) may perform an operation of resetting the overlapping region based on detection of a change in relative position.

동작 925에서, 프로세서(120)는 재설정된 중첩 영역에 기반하여 컨텐츠를 표시하고, 변경된 공유 정보를 대상 전자 장치로 전송하는 동작을 수행할 수 있다. 일 실시예에 따라, 동작 923과 동작 925에 대응하는 상대적 위치 변화에 기반하여 중첩 영역을 설정하여, 컨텐츠가 표시되는 위치를 조정하는 것과 관련하여 후술하는 도면들을 참조하여 설명된다.In operation 925, the processor (120) may perform an operation of displaying content based on the reset overlapping area and transmitting the changed shared information to the target electronic device. According to one embodiment, the operation of adjusting the position at which the content is displayed by setting the overlapping area based on the relative position change corresponding to operations 923 and 925 is described with reference to the drawings described below.

도 10은 일 실시예에 따른 전자 장치에서 가상 공간에 기반하여 컨텐츠를 표시하는 동작의 예를 도시하는 도면이다.FIG. 10 is a diagram illustrating an example of an operation of displaying content based on a virtual space in an electronic device according to one embodiment.

일 실시예에 따라, 도 10에서는 제1 사용자(710)가 제1 전자 장치(410)를 착용하고, 제1 전자 장치(410)의 디스플레이(예: 도 1 또는 도 5의 디스플레이 모듈(160))를 통해 제공되는 AR 화면을 보고 있는 상태를 나타낼 수 있다. 예를 들면, 도 10은 제1 사용자(710)가 현실 공간(예: 사용자 전방의 실세계)에서 제 1 전자 장치(410)의 제1 표시 영역(1030)(또는 제1 가상 환경)(예: 제1 전자 장치(410)의 AR 화면)을 통해 현실 공간의 적어도 일부에 겹쳐진 적어도 하나의 컨텐츠(1050)(또는 가상 객체 또는 증강 현실 이미지)를 보고 있는 상태를 나타낼 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제1 표시 영역(1030)에 기반하여 컨텐츠(1050)를 포함하는 하나 또는 그 이상의 컨텐츠들(예: 도 10의 예시에서 3개의 컨텐츠들)이 제공될 수 있다. 일 실시예에 따라, 컨텐츠(1050)는 사용자의 시야각(FOV) 상에서 보여지는 가상 객체를 포함할 수 있다.According to one embodiment, FIG. 10 may represent a state in which a first user (710) wears a first electronic device (410) and views an AR screen provided through a display of the first electronic device (410) (e.g., a display module (160) of FIG. 1 or FIG. 5 ). For example, FIG. 10 may represent a state in which the first user (710) views at least one content (1050) (or a virtual object or an augmented reality image) superimposed on at least a part of a real space (e.g., a real world in front of the user) through a first display area (1030) (or a first virtual environment) (e.g., an AR screen of the first electronic device (410)) of the first electronic device (410). According to one embodiment, the first electronic device (410) may provide one or more contents (e.g., three contents in the example of FIG. 10) including contents (1050) based on the first display area (1030). According to one embodiment, the contents (1050) may include a virtual object shown on the user's field of view (FOV).

일 실시예에서, 컨텐츠(1050)는 제1 전자 장치(410)를 착용한 제1 사용자(710)가 위치한 실제 현실 공간에서 제1 표시 영역(1030)을 통해 적어도 하나의 어플리케이션에 대응하는 그래픽 데이터가 가상 객체로서 제공되는 것일 수 있다. 일 실시예에 따라, 도 10의 예시에서 컨텐츠(1050)는 설명의 편의를 위해 도시한 것으로, 예를 들어, 제1 표시 영역(1030)을 통해 제공되는 적어도 하나의 컨텐츠 중 사용자에 의해 공유되는 공유 대상의 적어도 하나의 컨텐츠의 예를 나타낼 수 있다.In one embodiment, the content (1050) may be graphic data corresponding to at least one application provided as a virtual object through the first display area (1030) in the actual real space where the first user (710) wearing the first electronic device (410) is located. According to one embodiment, the content (1050) in the example of FIG. 10 is illustrated for convenience of explanation, and may represent, for example, an example of at least one content of a sharing target shared by the user among at least one content provided through the first display area (1030).

일 실시예에 따르면, 제1 전자 장치(410)는 현실 공간에서 제1 전자 장치(410)의 위치(예: 제1 사용자(710)의 머리 위치)를 기준으로 컨텐츠(1050)를 배치하여 표시할 수 있는 영역(예: 제1 표시 영역(1030))을 생성할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제1 전자 장치(410)의 장치 능력 정보에 기반하여 현실 공간에 컨텐츠를 배치할 수 있는 가상 공간(1010)을 설정할 수 있다. 예를 들어, 제1 전자 장치(410)가 형성할 수 있는 가상 공간(1010)은 제1 전자 장치(410)의 능력(또는 성능)에 따라 미리 설정될 수 있다. 예를 들어, 가상 공간(1010)은 제1 전자 장치(410)의 위치를 기준으로 설정될 수 있다. 일 실시예에 따라, 가상 공간(1010)은 고정 공간(예: 반경 약 1m, 반경 약 2m)일 수도 있다. 일 실시예에 따라, 가상 공간(1010)은 제1 사용자(710)가 지형적인 사물을 확인한 후 제1 사용자(710)가 원하는 공간을 지정하여 제1 전자 장치(410)가 가상 공간(1010)을 설정하도록 할 수도 있다. 일 실시예에 따르면, 가상 공간(1010)은 2차원적인 공간 또는 3차원적인 공간을 형성할 수 있다.According to one embodiment, the first electronic device (410) can generate an area (e.g., a first display area (1030)) in which content (1050) can be placed and displayed based on the position of the first electronic device (410) in the real space (e.g., the head position of the first user (710)). According to one embodiment, the first electronic device (410) can set a virtual space (1010) in which content can be placed in the real space based on device capability information of the first electronic device (410). For example, the virtual space (1010) that the first electronic device (410) can form can be set in advance according to the capability (or performance) of the first electronic device (410). For example, the virtual space (1010) can be set based on the position of the first electronic device (410). According to one embodiment, the virtual space (1010) may be a fixed space (e.g., about 1 m in radius, about 2 m in radius). According to one embodiment, the virtual space (1010) may allow the first electronic device (410) to set the virtual space (1010) by allowing the first user (710) to specify a desired space after the first user (710) confirms a geographical object. According to one embodiment, the virtual space (1010) may form a two-dimensional space or a three-dimensional space.

일 실시예에 따르면, 전자 장치(101)(예: 제1 전자 장치(410) 및 제2 전자 장치(420))는 가상 공간(1010) 및/또는 가상 공간(1010)에서의 표시 영역(1030)을 판별하기 위한 좌표 정보(예: 좌표계)를 획득할 수 있는 지정된 센서(예: 깊이 센서(depth sensor))를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 지정된 센서를 통해, 전자 장치(101) 및 외부 객체(예: 사물 및/또는 외부 전자 장치) 사이의 거리를 탐지할 수 있다. 일 실시예에서, 전자 장치(101)와 외부 객체 사이의 거리를 탐지하는 센서는 깊이 센서로 지칭될 수 있다. 일 실시예에서, 깊이 센서는, ToF(time-of-flight) 센서 및/또는 SL(structured light) 센서를 포함할 수 있다. ToF 센서는 ToF 카메라로 지칭될 수 있다. SL 센서는 SL 카메라로 지칭될 수 있다.According to one embodiment, the electronic device (101) (e.g., the first electronic device (410) and the second electronic device (420)) may include a designated sensor (e.g., a depth sensor) capable of obtaining coordinate information (e.g., a coordinate system) for determining a virtual space (1010) and/or a display area (1030) in the virtual space (1010). According to one embodiment, the electronic device (101) may detect a distance between the electronic device (101) and an external object (e.g., an object and/or an external electronic device) through the designated sensor. In one embodiment, the sensor that detects the distance between the electronic device (101) and the external object may be referred to as a depth sensor. In one embodiment, the depth sensor may include a time-of-flight (ToF) sensor and/or a structured light (SL) sensor. The ToF sensor may be referred to as a ToF camera. The SL sensor may be referred to as an SL camera.

일 실시예에서, SL 센서는, 특정 파장(예: 적외선 파장)의 광 패턴(예: 복수의 도트들)을 방사(emit)(또는 출력)할 수 있다. SL 센서는 외부 객체에 의해 반사되는 광 패턴이 SL 센서로 전파되는(propagated) 시간을 측정할 수 있다. 일 실시예에 따르면, 전자 장치(101)(또는 프로세서(120))는 SL 센서를 통해 측정된 시간을 이용하여, 외부 객체와 전자 장치(101) 사이의 거리를 계산할 수 있거나, 또는 결정할 수 있다. 일 실시예에서, ToF 센서는, 지정된 파장(예: 적외선 파장)의 광을 방사(또는 출력)할 수 있다. ToF 센서는, 외부 객체에 의해 반사되는 광이 ToF 센서로 전파되는 시간을 측정할 수 있다. 일 실시예에 따르면, 전자 장치(101)(또는 프로세서(120))는 ToF 센서를 통해 측정된 시간을 이용하여, 외부 객체와 전자 장치(101) 사이의 거리를 계산할 수 있거나, 또는 결정할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 ToF 센서를 이용하여, 상이한 방향들로 광들을 출력할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 출력된 광들 각각에 대한 반사 광들이 ToF 센서로 전파된 시간을 이용하여, 상이한 방향들 각각에 배치된 외부 객체 및 전자 장치(101) 사이의 거리들을 탐지할 수 있다. 일 실시예에서, 상기 거리들의 2차원 분포가, 뎁스 맵(depth map)으로 지칭될 수 있다.In one embodiment, the SL sensor can emit (or output) a light pattern (e.g., a plurality of dots) of a specific wavelength (e.g., an infrared wavelength). The SL sensor can measure the time it takes for the light pattern reflected by the external object to propagate to the SL sensor. According to one embodiment, the electronic device (101) (or the processor (120)) can calculate or determine a distance between the external object and the electronic device (101) using the time measured by the SL sensor. In one embodiment, the ToF sensor can emit (or output) light of a specific wavelength (e.g., an infrared wavelength). The ToF sensor can measure the time it takes for the light reflected by the external object to propagate to the ToF sensor. According to one embodiment, the electronic device (101) (or the processor (120)) can calculate or determine a distance between the external object and the electronic device (101) using the time measured by the ToF sensor. According to one embodiment, the electronic device (101) can output light in different directions using the ToF sensor. According to one embodiment, the electronic device (101) can detect distances between an external object and the electronic device (101) placed in each of the different directions using the time it takes for the reflected light for each of the outputted lights to propagate to the ToF sensor. In one embodiment, the two-dimensional distribution of the distances can be referred to as a depth map.

일 실시예에 따르면, 전자 장치(101)가 ToF 센서 및 SL 센서를 포함하는 경우, 전자 장치(101)(또는 프로세서(120))는 SL 센서를 이용하여 전자 장치(101)로부터 지정된 거리(예: 약 10 m) 미만으로 이격된 외부 객체를 탐지할 수 있고, ToF 센서를 이용하여 전자 장치(101)로부터 지정된 거리 이상으로 이격된 외부 객체를 탐지할 수 있다. 본 개시의 실시예가 이에 제한하는 것은 아니다.According to one embodiment, when the electronic device (101) includes a ToF sensor and an SL sensor, the electronic device (101) (or the processor (120)) can detect an external object spaced less than a specified distance (e.g., about 10 m) from the electronic device (101) using the SL sensor, and can detect an external object spaced more than a specified distance from the electronic device (101) using the ToF sensor. The embodiments of the present disclosure are not limited thereto.

일 실시예에 따르면, 전자 장치(101)(예: 제1 전자 장치(410) 및 제2 전자 장치(420))는 지정된 센서(예: 깊이 센서)에 기반하여 주변 환경의 뎁스 맵(depth map)을 생성할 수 있다. 일 실시예에서, 뎁스 맵은 깊이 센서를 이용하여 생성될 수 있다. 예를 들어, 전자 장치(101)는 ToF 센서를 통해 주변 사물 및 공간에 대해 스캔(scan)하고, 해당 기기들의 실제 크기 및 거리 정보를 기반으로 공간의 상대 또는 절대 좌표를 도출할 수 있다. 예를 들어, 전자 장치(101)는 ToF 센서를 통해 공간이 가지고 있는 거리 정보를 기반으로 3차원 좌표계를 가지는 뎁스 맵을 생성하고, 이후 뎁스 맵에 기반하여 가상 공간(예: 도 10의 제1 전자 장치(410)의 가상 공간(1010))을 형성할 수 있다.According to one embodiment, the electronic device (101) (e.g., the first electronic device (410) and the second electronic device (420)) can generate a depth map of the surrounding environment based on a designated sensor (e.g., a depth sensor). In one embodiment, the depth map can be generated using the depth sensor. For example, the electronic device (101) can scan surrounding objects and spaces through the ToF sensor, and derive relative or absolute coordinates of the space based on actual size and distance information of the corresponding devices. For example, the electronic device (101) can generate a depth map having a three-dimensional coordinate system based on distance information of the space through the ToF sensor, and then form a virtual space (e.g., a virtual space (1010) of the first electronic device (410) of FIG. 10) based on the depth map.

일 실시예에 따르면, 전자 장치(101)는 가상 공간 내에서의 전자 장치(101)의 위치(또는 위치 정보)(예: 제1 전자 장치(410)의 위치)를 기반으로 하는 상대 좌표계를 정의할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 가상 공간 내에서의 전자 장치(101)의 위치(또는 위치 정보)(예: 제1 전자 장치(410)의 위치)를 이용하여 가상 공간의 절대 좌표계를 획득하는 것도 가능 하다.According to one embodiment, the electronic device (101) can define a relative coordinate system based on the position (or position information) of the electronic device (101) within the virtual space (e.g., the position of the first electronic device (410)). According to one embodiment, the electronic device (101) can also obtain an absolute coordinate system of the virtual space by using the position (or position information) of the electronic device (101) within the virtual space (e.g., the position of the first electronic device (410)).

일 실시예에 따르면, 제1 전자 장치(410)는 가상 공간(1010)이 정해지면, 가상 공간(1010)에서 제1 사용자(710)의 시야각(FOV)에 대응하는 위치(또는 영역)에, 적어도 하나의 컨텐츠(1050)를 표시하기 위한 표시 영역(예: 제1 표시 영역(1030))을 설정할 수 있다. 일 실시예에 따라, 제1 전자 장치(410)는 가상 공간(1010)의 제1 표시 영역(1030)에 기반하여 컨텐츠(1050)를 표시할 수 있다. 일 실시예에 따라, 컨텐츠(1050)는 3차원 객체로 표시되거나, 또는 2차원 객체(예: 윈도우 형태의 객체)로 표시될 수도 있다. 일 실시예에 따르면, 컨텐츠(1050)는 단일 평면 또는 공간 평면의 연장선에 표시되는 형태로, 복수의 컨텐츠들을 표시하는 것도 가능하다. 일 실시예에 따라, 컨텐츠(1050)는 제1 전자 장치(410)의 위치(예: 제1 사용자(710)의 머리 위치)를 기준으로, 계속 움직이는 것이 가능하다(예: body lock mode 동작 지원). 일 실시예에 따라, 컨텐츠(1050)는 제1 사용자(710)가 위치한 절대 좌표에 귀속되어 해당 위치에 고정되어 표시되는 것도 가능 하다(예: world lock mode 동작 지원).According to one embodiment, when the virtual space (1010) is determined, the first electronic device (410) may set a display area (e.g., the first display area (1030)) for displaying at least one content (1050) in a location (or area) corresponding to a field of view (FOV) of the first user (710) in the virtual space (1010). According to one embodiment, the first electronic device (410) may display the content (1050) based on the first display area (1030) of the virtual space (1010). According to one embodiment, the content (1050) may be displayed as a three-dimensional object or as a two-dimensional object (e.g., an object in the form of a window). According to one embodiment, the content (1050) may be displayed in a form in which it is displayed on a single plane or an extension of a spatial plane, and may also display a plurality of contents. According to one embodiment, the content (1050) may be continuously moved based on the position of the first electronic device (410) (e.g., the head position of the first user (710)) (e.g., body lock mode operation support). According to one embodiment, the content (1050) may also be displayed fixed to the absolute coordinates where the first user (710) is located (e.g., world lock mode operation support).

도 11은 일 실시예에 따른 전자 장치들 간에 중첩 영역을 운영하는 동작의 예를 도시하는 도면이다.FIG. 11 is a diagram illustrating an example of an operation of operating an overlapping area between electronic devices according to one embodiment.

일 실시예에 따라, 도 11에서는 제1 사용자(710)가 제1 전자 장치(410)를 착용하고, 제1 전자 장치(410)의 디스플레이(예: 도 1 또는 도 5의 디스플레이 모듈(160))를 통해 제공되는 AR 화면을 보고 있는 상태와, 제2 사용자(720)가 제2 전자 장치(420)를 착용하고, 제2 전자 장치(420)의 디스플레이(예: 도 1 또는 도 5의 디스플레이(160))를 통해 제공되는 AR 화면을 보고 있는 상태를 나타낼 수 있다.According to one embodiment, FIG. 11 may illustrate a state in which a first user (710) wears a first electronic device (410) and views an AR screen provided through a display of the first electronic device (410) (e.g., a display module (160) of FIG. 1 or FIG. 5 ), and a state in which a second user (720) wears a second electronic device (420) and views an AR screen provided through a display of the second electronic device (420) (e.g., a display (160) of FIG. 1 or FIG. 5 ).

예를 들어, 도 11에서, 제1 사용자(710)는 현실 공간(예: 제1 사용자(710) 전방의 실세계)에서 제 1 전자 장치(410)의 제1 표시 영역(1030)(또는 제1 가상 환경)(예: 제1 전자 장치(410)의 AR 화면)을 통해 현실 공간의 적어도 일부에 겹쳐진 적어도 하나의 컨텐츠(1050)를 보고 있는 상태일 수 있다. 예를 들면, 도 11에서, 제2 사용자(720)는 현실 공간(예: 제2 사용자(720) 전반의 실세계)에서 제2 전자 장치(420)의 제2 표시 영역(1130)(또는 제2 가상 환경)(예: 제2 전자 장치(420)의 AR 화면)을 통해 현실 공간의 적어도 일부에 겹쳐진 적어도 하나의 컨텐츠(1150)를 보고 있는 상태일 수 있다.For example, in FIG. 11, a first user (710) may be viewing at least one content (1050) superimposed on at least a portion of a real space through a first display area (1030) (or a first virtual environment) (e.g., an AR screen of the first electronic device (410)) of a first electronic device (410) in a real space (e.g., a real world in front of the first user (710)). For example, in FIG. 11, a second user (720) may be viewing at least one content (1150) superimposed on at least a portion of a real space through a second display area (1130) (or a second virtual environment) (e.g., an AR screen of the second electronic device (420)) of a second electronic device (420) in a real space (e.g., a real world in front of the second user (720)).

일 실시예에 따르면, 제1 전자 장치(410)는 현실 공간에서 제1 전자 장치(410)의 위치(예: 제1 사용자(710)의 머리 위치)를 기준으로 컨텐츠(1050)를 배치하여 표시할 수 있는 영역(예: 제1 표시 영역(1030))을 제공할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제1 전자 장치(410)의 장치 능력 정보에 기반하여 현실 공간에 컨텐츠를 배치할 수 있는 가상 공간(1010)을 설정할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 가상 공간(1010)이 정해지면, 가상 공간(1010)에서 제1 사용자(710)의 시야각(FOV)에 대응하는 위치에 적어도 하나의 컨텐츠(1050)를 표시하기 위한 제1 표시 영역(1030)을 설정할 수 있다. 일 실시예에 따라, 제1 전자 장치(410)는 가상 공간(1010)의 제1 표시 영역(1030)에 기반하여 컨텐츠(1050)를 표시할 수 있다.According to one embodiment, the first electronic device (410) may provide an area (e.g., a first display area (1030)) in which content (1050) may be placed and displayed based on a position of the first electronic device (410) in a real space (e.g., a head position of the first user (710)). According to one embodiment, the first electronic device (410) may set a virtual space (1010) in which content may be placed in a real space based on device capability information of the first electronic device (410). According to one embodiment, when the virtual space (1010) is determined, the first electronic device (410) may set a first display area (1030) to display at least one content (1050) in a position corresponding to a field of view (FOV) of the first user (710) in the virtual space (1010). According to one embodiment, the first electronic device (410) may display content (1050) based on a first display area (1030) of a virtual space (1010).

일 실시예에 따르면, 제2 전자 장치(420)는 현실 공간에서 제2 전자 장치(420)의 위치(예: 제2 사용자(720)의 머리 위치)를 기준으로 컨텐츠(1150)를 배치하여 표시할 수 있는 영역(예: 제2 표시 영역(1130))을 제공할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 제2 전자 장치(420)의 장치 능력 정보에 기반하여 현실 공간에 컨텐츠를 배치할 수 있는 가상 공간(1110)을 설정할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 가상 공간(1110)이 정해지면, 가상 공간(1110)에서 제2 사용자(720)의 시야각(FOV)에 대응하는 위치에 적어도 하나의 컨텐츠(1150)를 표시하기 위한 제2 표시 영역(1130)을 설정할 수 있다. 일 실시예에 따라, 제2 전자 장치(420)는 가상 공간(1110)의 제2 표시 영역(1130)에 기반하여 컨텐츠(1150)를 표시할 수 있다.According to one embodiment, the second electronic device (420) may provide an area (e.g., a second display area (1130)) in which content (1150) may be placed and displayed based on the position of the second electronic device (420) in the real space (e.g., the head position of the second user (720)). According to one embodiment, the second electronic device (420) may set a virtual space (1110) in which content may be placed in the real space based on device capability information of the second electronic device (420). According to one embodiment, when the virtual space (1110) is determined, the second electronic device (420) may set a second display area (1130) to display at least one content (1150) in a position corresponding to a field of view (FOV) of the second user (720) in the virtual space (1110). According to one embodiment, the second electronic device (420) may display content (1150) based on a second display area (1130) of the virtual space (1110).

일 실시예에 따라, 도 11에서는, 하나의 물리적 공간에 제1 전자 장치(410)를 착용한 제1 사용자(710)와 제2 전자 장치(420)를 착용한 제2 사용자(720)가 인접하여 존재하고, 제1 사용자(710)와 제2 사용자(720) 간에 컨텐츠를 공유하고자 상황의 예를 나타낼 수 있다.According to one embodiment, FIG. 11 illustrates an example of a situation in which a first user (710) wearing a first electronic device (410) and a second user (720) wearing a second electronic device (420) exist adjacent to each other in one physical space, and content is shared between the first user (710) and the second user (720).

일 실시예에 따르면, 제1 전자 장치(410)는 가상 공간(1010)의 제1 표시 영역(1030)에 기반하여 컨텐츠(1050)를 표시하는 동안, 사용자 요청에 응답하여, 제2 전자 장치(420)를 탐색 및 연결할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제2 전자 장치(420)와 연결 시에, 제2 전자 장치(420)로부터 미리 약속된 제1 지정된 정보(예: 제2 전자 장치(420)에 관련된 장치 능력 정보(예: 가상 공간(1110)(또는 뎁스 맵) 정보), 위치 정보, 및/또는 표시 영역 정보)를 획득할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제1 전자 장치(410)에 관련된 제2 지정된 정보(예: 제1 전자 장치(410)에 관련된 장치 능력 정보(예: 가상 공간(1010)(또는 뎁스 맵) 정보), 위치 정보, 및/또는 표시 영역 정보)를 포함할 수 있다.According to one embodiment, the first electronic device (410) may search for and connect to the second electronic device (420) in response to a user request while displaying content (1050) based on the first display area (1030) of the virtual space (1010). According to one embodiment, when the first electronic device (410) is connected to the second electronic device (420), the first electronic device (410) may obtain first designated information (e.g., device capability information related to the second electronic device (420) (e.g., virtual space (1110) (or depth map) information), location information, and/or display area information) that has been agreed upon in advance from the second electronic device (420). According to one embodiment, the first electronic device (410) may include second designated information related to the first electronic device (410) (e.g., device capability information related to the first electronic device (410) (e.g., virtual space (1010) (or depth map) information), location information, and/or display area information).

일 실시예에 따르면, 제1 전자 장치(410)는 지정된 정보에 기반하여, 제1 전자 장치(410)와 제2 전자 장치(420)가 가지는 가상 공간의 크기, 표시 영역의 크기, 절대 좌표, 및/또는 절대 좌표 내에서 각각의 전자 장치(410, 420)의 위치 정보를 판단할 수 있다.According to one embodiment, the first electronic device (410) may determine, based on the specified information, the size of the virtual space possessed by the first electronic device (410) and the second electronic device (420), the size of the display area, the absolute coordinates, and/or the position information of each electronic device (410, 420) within the absolute coordinates.

일 실시예에 따르면, 제1 전자 장치(410)는 지정된 정보에 기반하여, 제1 전자 장치(410)의 가상 공간(1010) 기반 제1 표시 영역(1030)과 제2 전자 장치(420)의 가상 공간(1110) 기반 제2 표시 영역(1130)이 중첩되는 영역(예: 중첩 영역(1100))을 계산할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 각 전자 장치(410, 420)의 뎁스 맵에 기반하여 각 전자 장치(410, 420)가 형성하는 가상 공간(1010, 1110)에 관한 정보(예: 반경 정보)를 판단할 수 있고, 가상 공간(1010, 1110)에 관한 정보와 각 전자 장치(410, 420)의 위치 정보에 기반하여, 가상 공간(1010, 1110) 간에 중첩되는 중첩 영역(1100)을 판단할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 전자 장치(410)의 위치로부터 가상 공간(1010)의 반경 거리와, 제2 전자 장치(420)의 위치로부터 가상 공간(1110)의 반경 거리를 기준으로, 중첩 영역(1100)을 판단할 수 있다.According to one embodiment, the first electronic device (410) may calculate an area (e.g., an overlapping area (1100)) where a first display area (1030) based on a virtual space (1010) of the first electronic device (410) and a second display area (1130) based on a virtual space (1110) of the second electronic device (420) overlap, based on specified information. According to one embodiment, the first electronic device (410) can determine information (e.g., radius information) about a virtual space (1010, 1110) formed by each electronic device (410, 420) based on a depth map of each electronic device (410, 420), and can determine an overlapping area (1100) that overlaps between the virtual spaces (1010, 1110) based on the information about the virtual space (1010, 1110) and the location information of each electronic device (410, 420). For example, the first electronic device (410) can determine the overlapping area (1100) based on a radial distance of the virtual space (1010) from a location of the first electronic device (410) and a radial distance of the virtual space (1110) from a location of the second electronic device (420).

일 실시예에 따르면, 제1 전자 장치(410)는 중첩 영역(1100)의 크기에 따라 해당 중첩 영역(1100)에 기반하여 공유 영역을 설정할 지 여부를 판단할 수 있다. 예를 들어, 제1 전자 장치(101)는 중첩 영역(1100)의 크기가 지정된 기준 값(threshold)(예: 제1 지정된 기준 값) 이상인 경우, 중첩 영역(1100)에 기반한 공유 영역을 설정하고, 공유 영역에 기반하여 컨텐츠를 배치하여 표시하도록 동작할 수 있다.According to one embodiment, the first electronic device (410) may determine whether to set a shared area based on the overlapping area (1100) according to the size of the overlapping area (1100). For example, if the size of the overlapping area (1100) is greater than or equal to a specified threshold (e.g., a first specified threshold value), the first electronic device (101) may set a shared area based on the overlapping area (1100) and operate to arrange and display content based on the shared area.

일 실시예에 따르면, 제1 전자 장치(410)는 중첩 영역(1100)을 결정하고, 중첩 영역(1100) 내의 적어도 일부 영역을 공유 영역으로 설정할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제1 전자 장치(410)와 제2 전자 장치(420)가 향하는 방향(예: 사용자의 시야각 방향)을 고려하여, 중첩 영역(1100)의 적어도 일부 영역을 공유 영역으로 설정할 수 있다.According to one embodiment, the first electronic device (410) may determine an overlapping area (1100) and set at least a portion of an area within the overlapping area (1100) as a shared area. According to one embodiment, the first electronic device (410) may set at least a portion of an area within the overlapping area (1100) as a shared area by considering a direction in which the first electronic device (410) and the second electronic device (420) are facing (e.g., a direction of a user's field of view).

일 실시예에 따르면, 제1 전자 장치(410)는 중첩 영역(1100)의 크기 변화(예: 제1 사용자(710) 또는 제2 사용자(720)의 위치 이동에 따라 중첩 영역(1100)의 크기 변화)를 모니터링하고, 중첩 영역(1100)의 크기가 증가하거나, 축소되는 경우에 크기 변화에 대응하여 공유 영역의 크기를 변경하고, 공유 영역의 변경된 크기에 기반하여 컨텐츠의 표시 크기를 변경할 수도 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 중첩 영역(1100)의 크기 변화가 축소인 경우, 중첩 영역(1100)의 크기가 지정된 기준 값(예: 제1 지정된 기준 값과 다른 제2 지정된 기준 값, 제1 지정된 기준 값 > 제2 지정된 기준 값) 이하로 떨어지는 경우, 공유 영역을 해제하고, 컨텐츠의 이동을 결정할 수 있다.According to one embodiment, the first electronic device (410) monitors a change in the size of the overlapping area (1100) (e.g., a change in the size of the overlapping area (1100) according to a movement of the position of the first user (710) or the second user (720)), changes the size of the shared area in response to the change in the size when the size of the overlapping area (1100) increases or decreases, and may also change the display size of the content based on the changed size of the shared area. According to one embodiment, if the change in the size of the overlapping area (1100) is a decrease, the first electronic device (410) may release the shared area and determine to move the content when the size of the overlapping area (1100) falls below a specified reference value (e.g., a second specified reference value different from the first specified reference value, the first specified reference value > the second specified reference value).

일 실시예에 따라, 도 11에 예시된 바와 같이, 제1 전자 장치(410)는 중첩 영역(1100)이 지정된 기준 값(예: 제1 지정된 기준 값) 이상인 것을 판단하며, 중첩 영역(1100)에서 컨텐츠를 표시할 위치(예: 공유 영역에 관련된 절대 좌표 또는 상대 좌표)를 판단하고, 공유 영역으로 컨텐츠(1050)를 이동 배치하여 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 공유 영역에 관련된 공유 정보(예: 절대 좌표 또는 상대 좌표 기반의 위치 정보)를 제2 전자 장치(420)로 전달할 수 있다. 일 실시예에 따라, 제1 전자 장치(410)는 공유 정보와 함께 또는 개별적으로 컨텐츠(1050) 또는 컨텐츠(1050) 관련 정보를 제2 전자 장치(420)로 전송할 수 있다. 일 실시예에 따라, 컨텐츠(1050) 또는 컨텐츠(1050) 관련 정보는, 컨텐츠의 공유를 위한 지정된 공유 방식(예: 미러링 공유, 실행 링크(예: 컨텐츠 정보) 공유, 또는 컨텐츠 공유(예: 컨텐츠 자체 전송) 방식)에 기반하여 제2 전자 장치(420)와 공유될 수 있다.According to one embodiment, as illustrated in FIG. 11, the first electronic device (410) determines that the overlapping area (1100) is greater than or equal to a specified reference value (e.g., the first specified reference value), determines a location (e.g., absolute coordinates or relative coordinates related to the shared area) at which content is to be displayed in the overlapping area (1100), and moves and displays the content (1050) to the shared area. According to one embodiment, the first electronic device (410) may transmit shared information related to the shared area (e.g., location information based on absolute coordinates or relative coordinates) to the second electronic device (420). According to one embodiment, the first electronic device (410) may transmit the content (1050) or information related to the content (1050) to the second electronic device (420) together with or separately from the shared information. According to one embodiment, content (1050) or information related to content (1050) may be shared with a second electronic device (420) based on a designated sharing method for sharing the content (e.g., mirroring sharing, sharing of an execution link (e.g., content information), or sharing of the content (e.g., transferring the content itself)).

일 실시예에 따르면, 제2 전자 장치(420)는 제1 전자 장치(410)로부터 공유 정보를 수신하고, 제2 전자 장치(420)의 지정된 센서를 통해 주변 환경을 스캔할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 스캔된 주변 환경과 제1 전자 장치(410)로부터 수신된 공유 정보(예: 공유 영역에 대한 위치 정보)에 기반하여, 공유 영역의 위치(또는 좌표)가 어디인지 판단할 수 있다. 예를 들어, 제2 전자 장치(420)는 제2 전자 장치(420)의 가상 공간(1110) 내에서 제1 전자 장치(410)로부터 공유되는 컨텐츠를 표시할 영역을 식별할 수 있다.According to one embodiment, the second electronic device (420) may receive shared information from the first electronic device (410) and scan the surrounding environment through a designated sensor of the second electronic device (420). According to one embodiment, the second electronic device (420) may determine the location (or coordinates) of the shared area based on the scanned surrounding environment and the shared information (e.g., location information for the shared area) received from the first electronic device (410). For example, the second electronic device (420) may identify an area in the virtual space (1110) of the second electronic device (420) where content shared from the first electronic device (410) is to be displayed.

도 12는 일 실시예에 따른 전자 장치들 간에 중첩 영역을 운영하는 동작의 예를 도시하는 도면이다.FIG. 12 is a diagram illustrating an example of an operation of operating an overlapping area between electronic devices according to one embodiment.

일 실시예에 따라, 도 12에서는 전자 장치들(410, 420) 간의 위치 변화에 따라 중첩 영역(1100)의 크기가 축소되는 경우의 예를 나타낼 수 있다. 예를 들어, 도 11에 예시한 바와 같이, 컨텐츠의 공유가 이루어진 상황에서, 도 12에 예시한 바와 같이, 제1 사용자(710) 및/또는 제2 사용자(720)가 움직이는 상황(예: 제1 사용자(710) 및/또는 제2 사용자(720)의 위치 변화 상황)이 발생할 수 있다. 이러한 경우, 중첩 영역(1100)은, 예를 들어, 축소된 중첩 영역(1200)과 같이, 사용자들(710, 720) 간의 위치 변화에 기반하여 달라질 수 있다.According to one embodiment, FIG. 12 may illustrate an example in which the size of the overlapping area (1100) is reduced depending on a change in position between electronic devices (410, 420). For example, as illustrated in FIG. 11, in a situation in which content is shared, as illustrated in FIG. 12, a situation in which the first user (710) and/or the second user (720) moves (e.g., a situation in which the position of the first user (710) and/or the second user (720) changes) may occur. In this case, the overlapping area (1100) may vary based on the change in position between the users (710, 720), such as, for example, a reduced overlapping area (1200).

일 실시예에 따르면, 제1 전자 장치(410)는 중첩 영역(1100)의 크기 변화(예: 제1 사용자(710) 또는 제2 사용자(720)의 위치 이동에 따라 중첩 영역(1100)의 크기 변화)를 모니터링할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 중첩 영역(1100)의 크기가 축소되는 경우, 지정된 기준 값(예: 제1 지정된 기준 값 보다 작은 제2 지정된 기준 값)에 기반하여 중첩 영역(예: 축소된 중첩 영역(1200))의 유지 여부를 판단할 수 있다. 일 실시예에서, 제1 지정된 기준 값은 컨텐츠 공유 시점에 컨텐츠의 공유를 위한 최소한의 중첩 영역을 결정하기 위한 기준을 나타낼 수 있다. 일 실시예에서, 제2 지정된 기준 값은 컨텐츠 공유 이후에, 중첩 영역이 축소되는 경우 중첩 영역의 유지 및 중첩 영역에 기반한 컨텐츠의 공유 유지 여부를 결정하기 위한 기준을 나타낼 수 있다.According to one embodiment, the first electronic device (410) may monitor a change in the size of the overlapping area (1100) (e.g., a change in the size of the overlapping area (1100) depending on a movement of the position of the first user (710) or the second user (720)). According to one embodiment, when the size of the overlapping area (1100) is reduced, the first electronic device (410) may determine whether to maintain the overlapping area (e.g., the reduced overlapping area (1200)) based on a designated reference value (e.g., a second designated reference value smaller than the first designated reference value). In one embodiment, the first designated reference value may represent a reference for determining a minimum overlapping area for sharing content at the time of content sharing. In one embodiment, the second designated reference value may represent a reference for determining whether to maintain the overlapping area and maintain sharing of content based on the overlapping area after the content is shared, when the overlapping area is reduced.

일 실시예에 따르면, 제1 전자 장치(410)는 중첩 영역(1100)의 크기가 지정된 기준 값(예: 제2 지정된 기준 값) 이하로 떨어지는 경우, 공유 영역을 해제하고, 컨텐츠의 이동을 결정할 수 있다.According to one embodiment, the first electronic device (410) may release the shared area and determine to move the content when the size of the overlapping area (1100) falls below a specified reference value (e.g., a second specified reference value).

일 실시예에 따르면, 컨텐츠의 공유가 이루어진 상황에서 제1 사용자(710) 및/또는 제2 사용자(720)가 움직이는 상황(예: 제1 사용자(710) 및/또는 제2 사용자(720)의 위치 변화 상황)이 발생할 수 있다. 하지만, 사용자 경험 상 빈번하게 바뀌는 중첩 영역에 따라 지속적으로 컨텐츠의 위치를 변경하게 되는 경우, 사용자 경험을 저해할 수 있다. 따라서, 일 실시예에 따르면, 중첩 영역은 동적으로 변화하더라도, 컨텐츠를 표시하는 영역을 미세하게 계속 변경하지 않고 지정된 기준 값(예: 제2 지정된 기준 값)을 벗어날 때 조정하는 것으로 운영할 수 있다.According to one embodiment, in a situation where content is shared, a situation may occur where the first user (710) and/or the second user (720) moves (e.g., a situation where the location of the first user (710) and/or the second user (720) changes). However, if the location of the content is continuously changed according to the overlapping area that changes frequently in terms of user experience, the user experience may be hindered. Therefore, according to one embodiment, even if the overlapping area changes dynamically, it may be operated by adjusting it when it deviates from a designated reference value (e.g., a second designated reference value) without continuously and minutely changing the area where the content is displayed.

도 13은 일 실시예에 따른 전자 장치들 간에 중첩 영역을 운영하는 동작의 예를 도시하는 도면이다.FIG. 13 is a diagram illustrating an example of an operation of operating an overlapping area between electronic devices according to one embodiment.

일 실시예에 따라, 도 13에서는 전자 장치들(410, 420) 간의 위치 변화에 따라 중첩 영역(1100)을 해제하는 경우의 예를 나타낼 수 있다. 예를 들어, 도 11에 예시한 바와 같이, 컨텐츠의 공유가 이루어진 상황에서, 도 13에 예시한 바와 같이, 제1 사용자(710) 및/또는 제2 사용자(720)가 움직이는 상황(예: 제1 사용자(710) 및/또는 제2 사용자(720)의 위치 변화 상황)이 발생할 수 있다. 이러한 경우, 중첩 영역(1100)은 사용자들(710, 720) 간의 위치 변화에 기반하여 달라질 수 있다.According to one embodiment, FIG. 13 may illustrate an example of releasing an overlapping area (1100) based on a change in position between electronic devices (410, 420). For example, as illustrated in FIG. 11, in a situation where content is shared, as illustrated in FIG. 13, a situation may occur where a first user (710) and/or a second user (720) moves (e.g., a change in position of the first user (710) and/or the second user (720)). In this case, the overlapping area (1100) may vary based on the change in position between the users (710, 720).

일 실시예에 따르면, 도 13에서는 제1 전자 장치(410)와 제2 전자 장치(420) 간에 컨텐츠를 공유할 수 있는 중첩 영역이 완전히 분리되는 경우의 예를 나타낼 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)와 제2 전자 장치(420)는 컨텐츠를 공유할 수 있는 중첩 영역이 해제되지만, 전자 장치들(410, 420) 간의 연결과 컨텐츠 공유가 계속 유지되는 경우에는, 중첩 영역 기반의 공유 영역이 아닌, 제1 전자 장치(410)와 제2 전자 장치(420) 각각에서, 사용자들(710, 720)의 시야각에 대응하는 각각의 위치로 컨텐츠(1050, 1150)를 이동 배치하여 표시하도록 동작할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410) 및/또는 제2 전자 장치(420)는 컨텐츠(1050, 1150)의 이동 배치 시에, 각 전자 장치(410, 420)의 표시 영역 및 다른 컨텐츠의 표시 상태에 따라, 이동 배치하는 컨텐츠(1050, 1150)의 크기를 조정할 수도 있다.According to one embodiment, FIG. 13 may illustrate an example in which an overlapping area capable of sharing content between a first electronic device (410) and a second electronic device (420) is completely separated. According to one embodiment, when the overlapping area capable of sharing content between the first electronic device (410) and the second electronic device (420) is released, but the connection and content sharing between the electronic devices (410, 420) are still maintained, the first electronic device (410) and the second electronic device (420) may operate to display content (1050, 1150) by moving it to each position corresponding to the viewing angle of the users (710, 720), rather than a sharing area based on an overlapping area. According to one embodiment, when moving and arranging content (1050, 1150), the first electronic device (410) and/or the second electronic device (420) may adjust the size of the content (1050, 1150) to be moved and arranged, depending on the display area of each electronic device (410, 420) and the display status of other content.

도 14a 및 도 14b는 일 실시예에 따른 전자 장치들 간에 공유 컨텐츠를 표시하는 동작의 예를 도시하는 도면들이다.FIGS. 14A and 14B are diagrams illustrating examples of operations for displaying shared content between electronic devices according to one embodiment.

일 실시예에 따라, 도 14a 및 도 14b는, 제1 전자 장치(410)(또는 제1 사용자(A))와 제2 전자 장치(420)(또는 제2 사용자(B)) 간의 상대적 위치 및 컨텐츠 표시 기준 위치에 기반하여 컨텐츠를 표시하는 예를 나타낼 수 있다.According to one embodiment, FIGS. 14A and 14B may illustrate examples of displaying content based on a relative position and a content display reference position between a first electronic device (410) (or a first user (A)) and a second electronic device (420) (or a second user (B)).

일 실시예에 따라, 도 14a 및 도 14b에서는, 도 14a에 예시한 바와 같이, 제1 전자 장치(410)와 제2 전자 장치(420)가 나란히 위치한 상태에서, 제1 전자 장치(410)의 제1 표시 영역(1410)과 제2 전자 장치(420)의 제2 표시 영역(1420)에 기반하여 중첩 영역(1400)이 제공되는 예를 나타낼 수 있다.According to one embodiment, FIGS. 14A and 14B may illustrate an example in which, when a first electronic device (410) and a second electronic device (420) are positioned side by side as illustrated in FIG. 14A, an overlapping area (1400) is provided based on a first display area (1410) of the first electronic device (410) and a second display area (1420) of the second electronic device (420).

일 실시예에 따라, 도 14b의 예시에서는 설명의 편의를 위해 제1 전자 장치(410)와 제2 전자 장치(420)에 기반하여 제1 동작(예: 송신측 동작)과 제2 동작(예: 수신측 동작)을 구분하여 설명하지만, 본 개시가 이에 제한하는 것은 아니다. 예를 들어, 전자 장치(101)는 컨텐츠 공유 관련 동작에 따른 제1 동작과 제2 동작을 모두 수행 가능할 수 있다. 일 실시예에 따라, 도 14b에서는, 제2 전자 장치(420)가 컨텐츠의 공유를 실행하는 전자 장치(101)인 예를 나타낼 수 있다. 일 실시예에서, 도 14b에서는 컨텐츠를 공유하는 프로세싱의 주체가 제2 전자 장치(420)인 것을 예로 하지만, 컨텐츠를 공유하는 프로세싱의 주체가 제1 전자 장치(410)인 경우, 제1 전자 장치(410)에서 도 14b에 도시된 동작을 수행할 수도 있다. 예를 들어, 전자 장치(101)는 컨텐츠를 공유 요청하는 송신측 동작과 컨텐츠를 공유 요청을 수신하는 수신측 동작을 모두 수행 가능할 수 있다.According to one embodiment, in the example of FIG. 14b, for convenience of explanation, the first operation (e.g., the transmitting operation) and the second operation (e.g., the receiving operation) are described separately based on the first electronic device (410) and the second electronic device (420), but the present disclosure is not limited thereto. For example, the electronic device (101) may perform both the first operation and the second operation according to the content sharing related operation. According to one embodiment, FIG. 14b may show an example in which the second electronic device (420) is the electronic device (101) that executes content sharing. In one embodiment, FIG. 14b illustrates an example in which the subject of the processing for sharing content is the second electronic device (420), but if the subject of the processing for sharing content is the first electronic device (410), the first electronic device (410) may also perform the operation illustrated in FIG. 14b. For example, the electronic device (101) may be capable of performing both a transmitting operation for requesting content sharing and a receiving operation for receiving a content sharing request.

도 14b를 참조하면, 동작 <1401>에서, 제1 전자 장치(410)는 제1 표시 영역(1410)에 기반하여 제1 컨텐츠(1430)을 표시하고, 제2 전자 장치(420)는 제2 표시 영역(1420)에 기반하여 제2 컨텐츠(1440)을 표시하는 상태일 수 있다. 일 실시예에 따라, 제2 전자 장치(420)는 사용자 입력에 기반하여 제2 컨텐츠(1440)의 공유 요청을 감지할 수 있다.Referring to FIG. 14B, in operation <1401>, the first electronic device (410) may display first content (1430) based on the first display area (1410), and the second electronic device (420) may display second content (1440) based on the second display area (1420). According to one embodiment, the second electronic device (420) may detect a sharing request of the second content (1440) based on a user input.

일 실시예에 따르면, 제2 전자 장치(420)는 제2 컨텐츠(1440)의 공유 요청에 응답하여, 제1 전자 장치(410)와 제2 전자 장치(420) 간의 상대적 위치를 고려하여 제2 컨텐츠(1440)를 표시하도록 동작할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 제1 전자 장치(410) 사이의 공유 영역을 결정하고, 공유 영역에 관련된 공유 정보와 제2 컨텐츠(1440)를 제1 전자 장치(410)로 전송할 수 있다.In one embodiment, the second electronic device (420) may operate to display the second content (1440) in response to a request to share the second content (1440), taking into account the relative positions between the first electronic device (410) and the second electronic device (420). In one embodiment, the second electronic device (420) may determine a shared area between the first electronic device (410) and transmit shared information related to the shared area and the second content (1440) to the first electronic device (410).

동작 <1403>에서, 제2 전자 장치(420)는 제2 표시 영역(1420)에서 제1 전자 장치(410)와 제2 전자 장치(420) 사이의 상대적 위치를 고려한 영역(예: 공유 영역)에 기반하여 제2 컨텐츠(1440)를 표시할 수 있다. 예를 들어, 제2 전자 장치(420)는 제2 표시 영역(1420)에서 제2 컨텐츠(1440)의 위치를 공유 영역에 대응하는 위치(예: 제2 표시 영역(1420)의 좌측 영역)로 이동 배치하여 표시할 수 있다.In operation <1403>, the second electronic device (420) may display the second content (1440) based on an area (e.g., a shared area) that takes into account the relative positions between the first electronic device (410) and the second electronic device (420) in the second display area (1420). For example, the second electronic device (420) may display the second content (1440) by moving the position of the second content (1440) in the second display area (1420) to a position corresponding to the shared area (e.g., a left area of the second display area (1420)).

동작 <1403>에서, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제1 전자 장치(410)와 제2 전자 장치(420) 사이의 상대적 위치가 고려된 영역(예: 공유 정보에 기반한 공유 영역)에 기반하여 제2 컨텐츠(1440)를 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제2 컨텐츠(1440)의 위치를 공유 영역에 대응하는 위치(예: 제1 표시 영역(1410)의 우측 영역)에 배치하여 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제2 전자 장치(420)로부터 공유된 제2 컨텐츠(1440)의 표시에 대응하여, 제1 전자 장치(410)에서 이전에 표시 중이던 제1 컨텐츠(1430)를 이동 배치하여 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제1 컨텐츠(1430)의 위치를 제2 컨텐츠(1440)가 표시되는 위치와 반대되는 위치(예: 제1 표시 영역(1410)의 좌측 영역)에 이동 배치하여 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제2 컨텐츠(1440)의 표시에 대응하여, 제1 표시 영역(1410)의 레이아웃을 재배치할 수 있고, 이전에 표시 중이던 제1 컨텐츠(1430)의 이동 배치 시, 제1 컨텐츠(1430)의 크기(또는 해상도 또는 윈도우 크기)를 조정(또는 리사이징)하여, 제1 컨텐츠(1430)의 크기를 축소하여 표시할 수 있다.In operation <1403>, the first electronic device (410) may display the second content (1440) based on an area (e.g., a shared area based on shared information) in which a relative position between the first electronic device (410) and the second electronic device (420) is considered in the first display area (1410). For example, the first electronic device (410) may display the second content (1440) by arranging it in a location corresponding to the shared area (e.g., a right area of the first display area (1410)) in the first display area (1410). According to one embodiment, the first electronic device (410) may display the first content (1430) previously displayed on the first electronic device (410) by moving it in response to the display of the second content (1440) shared from the second electronic device (420). For example, the first electronic device (410) may display the first content (1430) by moving it to a position opposite to the position where the second content (1440) is displayed (e.g., a left area of the first display area (1410)) in the first display area (1410). According to one embodiment, the first electronic device (410) may rearrange the layout of the first display area (1410) in response to the display of the second content (1440), and when the first content (1430) that was previously being displayed is moved and placed, the first electronic device (410) may adjust (or resize) the size (or resolution or window size) of the first content (1430) to display it by reducing the size of the first content (1430).

동작 <1403>에서, 제2 컨텐츠(1440)의 공유가 이루어진 상황에서, 제1 전자 장치(410) 및/또는 제2 전자 장치(420)는 사용자 입력에 대응하는 입력 값(또는 제어 값)을 공유할 수 있다. 예를 들어, 제2 사용자(B)는 제2 컨텐츠(1440)에서 지정된 인터랙션(예: 터치 또는 탭과 같은 터치 제스처)을 수행할 수 있다. 일 실시예에 따라, 제2 전자 장치(420)는 제2 사용자(B)의 사용자 입력에 따른 입력 값을 제1 전자 장치(410)로 전송할 수 있다.In operation <1403>, in a situation where sharing of the second content (1440) is performed, the first electronic device (410) and/or the second electronic device (420) may share an input value (or a control value) corresponding to a user input. For example, the second user (B) may perform a specified interaction (e.g., a touch gesture such as a touch or tap) in the second content (1440). According to one embodiment, the second electronic device (420) may transmit an input value according to the user input of the second user (B) to the first electronic device (410).

동작 <1405>에서, 제2 전자 장치(420)는 제2 표시 영역(1420)에서 제2 컨텐츠(1440)에 대한 사용자 입력에 응답하여, 관련 동작을 처리하고, 그 처리 결과가 반영된 제3 컨텐츠(1460)를 공유 영역에 기반하여 표시할 수 있다. 예를 들어, 제2 전자 장치(420)는 제2 컨텐츠(1440)가 표시 중이던 위치에 기반하여 제3 컨텐츠(1460)를 표시할 수 있다.In operation <1405>, the second electronic device (420) may process a related operation in response to a user input for the second content (1440) in the second display area (1420), and display third content (1460) that reflects the processing result based on the shared area. For example, the second electronic device (420) may display the third content (1460) based on the location where the second content (1440) was being displayed.

동작 <1405>에서, 제1 전자 장치(410)는 제2 전자 장치(420)로부터 제1 표시 영역(1410)에서 공유 영역에 기반하여 표시 중인 제2 컨텐츠(1440)에 관련된 입력 값을 수신할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제2 컨텐츠(1440)에 대해 입력 값에 기반하여 관련 동작을 처리하고, 그 처리 결과가 반영된 제3 컨텐츠(1460)를 공유 영역에 기반하여 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제2 컨텐츠(1440)가 표시 중이던 위치에 기반하여 제3 컨텐츠(1460)를 표시할 수 있다.In operation <1405>, the first electronic device (410) may receive an input value related to second content (1440) being displayed based on a shared area in the first display area (1410) from the second electronic device (420). According to one embodiment, the first electronic device (410) may process a related operation based on the input value for the second content (1440) and display third content (1460) to which the processing result is reflected based on the shared area. For example, the first electronic device (410) may display the third content (1460) based on the location where the second content (1440) was being displayed.

도 15a 및 도 15b는 일 실시예에 따른 전자 장치들 간에 공유 컨텐츠를 표시하는 동작의 예를 도시하는 도면들이다.FIGS. 15A and 15B are diagrams illustrating examples of operations for displaying shared content between electronic devices according to one embodiment.

일 실시예에 따라, 도 15a 및 도 15b는, 제1 전자 장치(410)(또는 제1 사용자(A))와 제2 전자 장치(420)(또는 제2 사용자(B)) 간의 상대적 위치 및 컨텐츠 표시 기준 위치에 기반하여 컨텐츠를 표시하는 예를 나타낼 수 있다.According to one embodiment, FIGS. 15A and 15B may illustrate examples of displaying content based on a relative position and a content display reference position between a first electronic device (410) (or a first user (A)) and a second electronic device (420) (or a second user (B)).

일 실시예에 따라, 도 15a 및 도 15b는, 도 14a에 예시한 바와 같은 제1 전자 장치(410)와 제2 전자 장치(420) 간의 상대적 위치 관계에서, 제1 전자 장치(410)와 제2 전자 장치(420) 간의 위치가 변경되는 경우에 컨텐츠를 표시하는 예를 나타낼 수 있다. 예를 들어, 도 15a 및 도 15b에서는, 도 15a에 예시한 바와 같이, 제1 전자 장치(410)와 제2 전자 장치(420)가 나란히 위치한 상태(예: 도 14a에 예시한 바와 같이, 제1 전자 장치(410)가 제2 전자 장치(420)의 좌측에 위치한 상태)에서, 제1 전자 장치(410)가 위치 이동되어, 제2 전자 장치(420)의 우측으로 이동된 상황에서, 중첩 영역(1400)이 제공되는 예를 나타낼 수 있다.According to one embodiment, FIGS. 15A and 15B may illustrate examples of displaying content when the position between the first electronic device (410) and the second electronic device (420) changes in the relative positional relationship between the first electronic device (410) and the second electronic device (420) as illustrated in FIG. 14A. For example, FIGS. 15A and 15B may illustrate examples of providing an overlapping area (1400) in a situation where the first electronic device (410) and the second electronic device (420) are positioned side by side as illustrated in FIG. 15A (e.g., the first electronic device (410) is positioned to the left of the second electronic device (420) as illustrated in FIG. 14A), and the first electronic device (410) is positioned and moves to the right of the second electronic device (420).

도 15b를 참조하면, 제1 전자 장치(410)와 제2 전자 장치(420)는 서로 간의 상대적 위치 변화에 대응하여, 표시 영역에서 공유 컨텐츠(예: 제3 컨텐츠(1460))가 표시되는 위치를, 제1 전자 장치(410)와 제2 전자 장치(420) 간의 상대적 위치에 기반하여 이동 배치하여 표시할 수 있다.Referring to FIG. 15b, the first electronic device (410) and the second electronic device (420) can display the location where the shared content (e.g., third content (1460)) is displayed in the display area by moving the location based on the relative location between the first electronic device (410) and the second electronic device (420) in response to a change in the relative location between them.

일 실시예에 따르면, 제2 전자 장치(420)는 제2 표시 영역(1420)에서 제1 전자 장치(410)와 제2 전자 장치(420) 사이의 변경된 상대적 위치 변화를 고려한 영역(예: 변경된 공유 영역)에 기반하여 제3 컨텐츠(1460)를 표시할 수 있다. 예를 들어, 제2 전자 장치(420)는 제2 표시 영역(1420)에서 제3 컨텐츠(1460)의 위치를 변경된 공유 영역에 대응하는 위치(예: 제2 표시 영역(1420)의 우측 영역)로 이동 배치하여 표시할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 제1 전자 장치(410) 사이의 변경된 공유 영역을 결정하고, 변경된 공유 영역에 관련된 공유 정보를 제1 전자 장치(410)로 전송할 수 있다.According to one embodiment, the second electronic device (420) may display the third content (1460) based on an area (e.g., a changed shared area) that takes into account the changed relative position change between the first electronic device (410) and the second electronic device (420) in the second display area (1420). For example, the second electronic device (420) may move and display the third content (1460) in the second display area (1420) to a location corresponding to the changed shared area (e.g., a right area of the second display area (1420)). According to one embodiment, the second electronic device (420) may determine the changed shared area between the first electronic device (410) and transmit sharing information related to the changed shared area to the first electronic device (410).

일 실시예에 따르면, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제1 전자 장치(410)와 제2 전자 장치(420) 사이의 상대적 위치 변화가 고려된 영역(예: 공유 정보에 기반한 공유 영역)에 기반하여 제3 컨텐츠(1460)를 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제3 컨텐츠(1460)의 위치를, 변경된 공유 영역에 대응하는 위치(예: 제1 표시 영역(1410)의 좌측 영역)에 배치하여 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제3 컨텐츠(1460)의 이동 배치에 대응하여, 제1 전자 장치(410)에서 이전에 표시 중이던 제1 컨텐츠(1430)를 이동 배치하여 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제1 컨텐츠(1430)의 위치를 제3 컨텐츠(1460)가 표시되는 위치와 반대되는 위치(예: 제1 표시 영역(1410)의 우측 영역)에 이동 배치하여 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제3 컨텐츠(1460)의 표시에 대응하여, 제1 표시 영역(1410)의 레이아웃을 재배치할 수 있다.According to one embodiment, the first electronic device (410) may display the third content (1460) based on an area (e.g., a shared area based on shared information) in which a change in the relative position between the first electronic device (410) and the second electronic device (420) is considered in the first display area (1410). For example, the first electronic device (410) may display the third content (1460) by arranging it in a position corresponding to the changed shared area (e.g., a left area of the first display area (1410)) in the first display area (1410). According to one embodiment, the first electronic device (410) may display the first content (1430) previously displayed on the first electronic device (410) by arranging it in response to the moved arrangement of the third content (1460). For example, the first electronic device (410) may display the first content (1430) by moving it to a position opposite to the position where the third content (1460) is displayed (e.g., a right area of the first display area (1410)) in the first display area (1410). According to one embodiment, the first electronic device (410) may rearrange the layout of the first display area (1410) in response to the display of the third content (1460).

도 16a 및 도 16b는 일 실시예에 따른 전자 장치들 간에 공유 컨텐츠를 표시하는 동작의 예를 도시하는 도면들이다.FIGS. 16A and 16B are diagrams illustrating examples of operations for displaying shared content between electronic devices according to one embodiment.

일 실시예에 따라, 도 16a 및 도 16b는, 제1 전자 장치(410)(또는 제1 사용자(A))와 제2 전자 장치(420)(또는 제2 사용자(B)) 간의 상대적 위치 및 컨텐츠 표시 기준 위치에 기반하여 컨텐츠를 표시하는 예를 나타낼 수 있다. 일 실시예에 따라, 도 16a에서는 중첩 영역이 해제될 수 있고, 컨텐츠 공유가 지속되는 경우의 예를 나타낼 수 있다. 일 실시예에 따라, 도 16a에서는 제1 전자 장치(410)와 제2 전자 장치(420)의 상대적 위치 관계에서, 제1 사용자(A)와 제2 사용자(B)가 컨텐츠를 함께 보는 경험이 아닐 수 있다. 일 실시예에 따라, 제1 사용자(A)와 제2 사용자(B)가 컨텐츠를 함께 보는 경험이 아닌 경우, 컨텐츠를 제1 사용자(A)와 제2 사용자(B) 각각에 대응하는 시야각에 기반하여 컨텐츠를 각각 표시하도록 할 수 있다.According to one embodiment, FIGS. 16A and 16B may illustrate examples of displaying content based on the relative position and content display reference position between a first electronic device (410) (or a first user (A)) and a second electronic device (420) (or a second user (B)). According to one embodiment, FIG. 16A illustrates an example in which an overlapping area may be released and content sharing continues. According to one embodiment, FIG. 16A illustrates that, in the relative positional relationship between the first electronic device (410) and the second electronic device (420), the first user (A) and the second user (B) may not have an experience of viewing content together. According to one embodiment, when the first user (A) and the second user (B) do not have an experience of viewing content together, the content may be displayed based on a viewing angle corresponding to each of the first user (A) and the second user (B).

일 실시예에 따라, 도 16a 및 도 16b는, 도 15a에 예시한 바와 같은 제1 전자 장치(410)와 제2 전자 장치(420) 간의 상대적 위치 관계에서, 제1 전자 장치(410)와 제2 전자 장치(420) 간의 위치가 변경되는 경우에 컨텐츠를 표시하는 예를 나타낼 수 있다. 예를 들어, 도 16a 및 도 16b에서는, 도 16a에 예시한 바와 같이, 제1 전자 장치(410)와 제2 전자 장치(420)가 실질적으로 나란히 위치한 상태(예: 도 15a에 예시한 바와 같이, 제1 전자 장치(410)가 제2 전자 장치(420)의 우측에 위치한 상태)에서, 제1 전자 장치(410)가 위치 이동되어, 제2 전자 장치(420)의 앞쪽으로 이동된 상황에서 컨텐츠를 표시하는 예를 나타낼 수 있다.According to one embodiment, FIGS. 16A and 16B may illustrate examples of displaying content when the position between the first electronic device (410) and the second electronic device (420) changes in the relative positional relationship between the first electronic device (410) and the second electronic device (420) as illustrated in FIG. 15A. For example, FIGS. 16A and 16B may illustrate examples of displaying content when the first electronic device (410) and the second electronic device (420) are substantially positioned side by side as illustrated in FIG. 16A (e.g., the first electronic device (410) is positioned to the right of the second electronic device (420) as illustrated in FIG. 15A), and the first electronic device (410) is moved to the front of the second electronic device (420).

도 16b를 참조하면, 제1 전자 장치(410)와 제2 전자 장치(420)는 서로 간의 상대적 위치 변화에 대응하여, 표시 영역에서 공유 컨텐츠(예: 제3 컨텐츠(1460))가 표시되는 위치를, 제1 전자 장치(410)와 제2 전자 장치(420) 간의 상대적 위치에 기반하여 이동 배치하여 표시할 수 있다.Referring to FIG. 16b, the first electronic device (410) and the second electronic device (420) can display the location where the shared content (e.g., third content (1460)) is displayed in the display area by moving the location based on the relative location between the first electronic device (410) and the second electronic device (420) in response to a change in the relative location between them.

일 실시예에 따르면, 제2 전자 장치(420)는 제2 표시 영역(1420)에서 제1 전자 장치(410)와 제2 전자 장치(420) 사이의 변경된 상대적 위치 변화를 고려한 영역(예: 변경된 공유 영역)에 기반하여 제3 컨텐츠(1460)를 표시할 수 있다. 예를 들어, 제2 전자 장치(420)는 제2 표시 영역(1420)에서 제3 컨텐츠(1460)의 위치를, 제2 표시 영역(1420)의 중앙 위치(예: 제2 사용자(B)의 시야각에 대응하는 위치)로 이동 배치하여 표시할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 제1 전자 장치(410) 사이의 중첩 영역 해제를 결정하고, 중첩 영역 해제에 관련된 공유 정보를 제1 전자 장치(410)로 전송할 수 있다.According to one embodiment, the second electronic device (420) may display the third content (1460) based on an area (e.g., a changed shared area) that takes into account the changed relative position change between the first electronic device (410) and the second electronic device (420) in the second display area (1420). For example, the second electronic device (420) may display the third content (1460) by moving the location of the third content (1460) in the second display area (1420) to a central location of the second display area (1420) (e.g., a location corresponding to the field of view of the second user (B)). According to one embodiment, the second electronic device (420) may determine to release the overlapping area between the first electronic device (410) and transmit shared information related to the release of the overlapping area to the first electronic device (410).

일 실시예에 따르면, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제1 전자 장치(410)와 제2 전자 장치(420) 사이의 상대적 위치 변화가 고려된 영역에 기반하여 제3 컨텐츠(1460)를 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제3 컨텐츠(1460)의 위치를, 제1 표시 영역(1410)의 중앙 위치(예: 제1 사용자(A)의 시야각에 대응하는 위치)로 이동 배치하여 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제3 컨텐츠(1460)의 이동 배치에 대응하여, 제1 전자 장치(410)에서 이전에 표시 중이던 제1 컨텐츠(1430)를 이동 또는 크기를 축소하여 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제3 컨텐츠(1460)가 중앙에 표시됨에 따라, 제1 컨텐츠(1430)의 위치는 유지하되, 제1 컨텐츠(1430)의 크기를 축소하여 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제3 컨텐츠(1460)의 표시에 대응하여, 제1 표시 영역(1410)의 레이아웃을 재배치할 수 있다.According to one embodiment, the first electronic device (410) may display the third content (1460) based on an area in which a relative position change between the first electronic device (410) and the second electronic device (420) is considered in the first display area (1410). For example, the first electronic device (410) may display the third content (1460) by moving the location of the third content (1460) in the first display area (1410) to a central location of the first display area (1410) (e.g., a location corresponding to the viewing angle of the first user (A)). According to one embodiment, the first electronic device (410) may display the first content (1430) previously displayed on the first electronic device (410) by moving or reducing its size in response to the moving location of the third content (1460). For example, the first electronic device (410) may display the first content (1430) in a reduced size while maintaining the position of the first content (1430) as the third content (1460) is displayed in the center of the first display area (1410). According to one embodiment, the first electronic device (410) may rearrange the layout of the first display area (1410) in response to the display of the third content (1460).

도 17a 및 도 17b는 일 실시예에 따른 전자 장치들 간에 공유 컨텐츠를 표시하는 동작의 예를 도시하는 도면들이다.FIGS. 17A and 17B are diagrams illustrating examples of operations for displaying shared content between electronic devices according to one embodiment.

일 실시예에 따라, 도 17a 및 도 17b는, 제1 전자 장치(410)(또는 제1 사용자(A))와 제2 전자 장치(420)(또는 제2 사용자(B)) 간의 상대적 위치 및 컨텐츠 표시 기준 위치에 기반하여 컨텐츠를 표시하는 예를 나타낼 수 있다. 일 실시예에 따라, 도 17a에서는 중첩 영역이 해제되고, 컨텐츠 공유가 지속되는 경우의 예를 나타낼 수 있다. 일 실시예에 따라, 도 17a에서는 제1 전자 장치(410)와 제2 전자 장치(420)의 상대적 위치 관계에서, 제1 사용자(A)와 제2 사용자(B)가 컨텐츠를 함께 보는 경험일 수 있다. 일 실시예에 따라, 제1 사용자(A)와 제2 사용자(B)가 컨텐츠를 함께 보는 경험인 경우, 컨텐츠를 제1 전자 장치(410)와 제2 전자 장치(420)의 상대적 위치에 기반하여 표시하도록 할 수 있다.According to one embodiment, FIGS. 17A and 17B may illustrate examples of displaying content based on the relative position and content display reference position between a first electronic device (410) (or a first user (A)) and a second electronic device (420) (or a second user (B)). According to one embodiment, FIG. 17A may illustrate an example in which an overlapping area is released and content sharing continues. According to one embodiment, FIG. 17A may illustrate an experience in which a first user (A) and a second user (B) view content together in a relative positional relationship between the first electronic device (410) and the second electronic device (420). According to one embodiment, in the case in which the first user (A) and the second user (B) view content together, the content may be displayed based on the relative positions of the first electronic device (410) and the second electronic device (420).

일 실시예에 따라, 도 17a 및 도 17b는, 도 14a에 예시한 바와 같은 제1 전자 장치(410)와 제2 전자 장치(420) 간의 상대적 위치 관계에서, 제1 전자 장치(410)와 제2 전자 장치(420) 간의 위치가 변경되는 경우에 컨텐츠를 표시하는 예를 나타낼 수 있다. 예를 들어, 도 17a 및 도 17b에서는, 도 14a에 예시한 바와 같이, 제1 전자 장치(410)와 제2 전자 장치(420)가 나란히 위치한 상태(예: 도 14a에 예시한 바와 같이, 제1 전자 장치(410)가 제2 전자 장치(420)의 좌측에 위치한 상태)에서, 제1 전자 장치(410)가 위치 이동되어, 제2 전자 장치(420)의 뒤쪽으로 이동된 상황에서 컨텐츠를 표시하는 예를 나타낼 수 있다.According to one embodiment, FIGS. 17A and 17B may illustrate examples of displaying content when the position between the first electronic device (410) and the second electronic device (420) changes in the relative positional relationship between the first electronic device (410) and the second electronic device (420) as illustrated in FIG. 14A. For example, FIGS. 17A and 17B may illustrate examples of displaying content when the first electronic device (410) and the second electronic device (420) are positioned side by side as illustrated in FIG. 14A (e.g., the first electronic device (410) is positioned to the left of the second electronic device (420) as illustrated in FIG. 14A), and the first electronic device (410) is moved to the back of the second electronic device (420).

도 17b를 참조하면, 제1 전자 장치(410)와 제2 전자 장치(420)는 서로 간의 상대적 위치 변화에 대응하여, 표시 영역에서 공유 컨텐츠(예: 제3 컨텐츠(1460))가 표시되는 위치를, 제1 전자 장치(410)와 제2 전자 장치(420) 간의 상대적 위치에 기반하여 이동 배치하여 표시할 수 있다.Referring to FIG. 17b, the first electronic device (410) and the second electronic device (420) can display the location where the shared content (e.g., third content (1460)) is displayed in the display area by moving the location based on the relative location between the first electronic device (410) and the second electronic device (420) in response to a change in the relative location between them.

동작 <1701>에서, 제2 전자 장치(420)는 제2 표시 영역(1420)에서 제1 전자 장치(410)와 제2 전자 장치(420) 사이의 변경된 상대적 위치 변화를 고려한 영역(예: 변경된 공유 영역)에 기반하여 제3 컨텐츠(1460)를 표시할 수 있다. 예를 들어, 제2 전자 장치(420)는 제2 표시 영역(1420)에서 제3 컨텐츠(1460)의 위치를, 공유 영역에 대응하는 위치(예: 제2 표시 영역(1420)의 좌측 영역)에 유지하여 표시할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 제1 전자 장치(410) 사이의 변경된 공유 영역을 결정하고, 변경된 공유 영역에 관련된 공유 정보를 제1 전자 장치(410)로 전송할 수 있다. 일 실시예에서 공유 정보는 제1 전자 장치(410)의 상대적 위치 변화에 대한 움직임 정보를 포함할 수도 있다.In operation <1701>, the second electronic device (420) may display the third content (1460) based on an area (e.g., a changed shared area) that takes into account the changed relative position change between the first electronic device (410) and the second electronic device (420) in the second display area (1420). For example, the second electronic device (420) may display the third content (1460) by maintaining the position of the third content (1460) in the second display area (1420) at a position corresponding to the shared area (e.g., a left area of the second display area (1420)). According to one embodiment, the second electronic device (420) may determine the changed shared area between the first electronic device (410) and transmit sharing information related to the changed shared area to the first electronic device (410). In one embodiment, the shared information may include movement information regarding the change in the relative position of the first electronic device (410).

동작 <1701>에서, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제1 전자 장치(410)와 제2 전자 장치(420) 사이의 상대적 위치 변화가 고려된 영역에 기반하여 제3 컨텐츠(1460)를 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제3 컨텐츠(1460)의 위치를, 공유 영역에 대응하는 위치(예: 제1 표시 영역(1410)의 우측 영역)에 배치하여 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제2 전자 장치(420)와의 상대적 위치를 고려할 때, 제2 전자 장치(420)로부터 뒤로 이동 중인 상황일 수 있다. 일 실시예에 따라, 제1 전자 장치(410)는 제1 전자 장치(410)가 이동 중인 상황인 경우, 제3 컨텐츠(1460)를, 제1 전자 장치(410)의 이동(또는 움직임)에 대응하는 애니메이션 효과(1760)(예: 화면이 점차적으로 작아지는 효과)에 따른 변화를 시각적으로 표시할 수 있다.In operation <1701>, the first electronic device (410) may display third content (1460) based on an area in which a change in the relative position between the first electronic device (410) and the second electronic device (420) is considered in the first display area (1410). For example, the first electronic device (410) may display the location of the third content (1460) in the first display area (1410) by placing it in a location corresponding to a shared area (e.g., a right area of the first display area (1410)). According to one embodiment, the first electronic device (410) may be moving backward from the second electronic device (420) when considering the relative position with respect to the second electronic device (420). According to one embodiment, the first electronic device (410) may visually display a change in the third content (1460) according to an animation effect (1760) (e.g., a screen gradually getting smaller) corresponding to the movement (or motion) of the first electronic device (410) when the first electronic device (410) is moving.

<동작 1703>에서, 제2 전자 장치(420)는 제3 컨텐츠(1460)의 표시에 관련된 동작을 유지하는 상태일 수 있다.In <Action 1703>, the second electronic device (420) may be in a state of maintaining an action related to displaying third content (1460).

<동작 1703>에서, 제1 전자 장치(410)는 이동이 멈춘 상태에서 제3 컨텐츠(1460)를 제1 전자 장치(410)의 상대적 위치 변화에 따라 조정하고, 조정된 제3 컨텐츠(1770)를 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 전자 장치(410)가 이동된 거리에 상대적으로 비례하여 제3 컨텐츠(1460)의 크기를 재조정(또는 리사이증)하여, 크기가 축소된 제3 컨텐츠(1770)를 표시할 수 있다.In <Operation 1703>, the first electronic device (410) can adjust the third content (1460) according to the change in the relative position of the first electronic device (410) while the movement is stopped, and display the adjusted third content (1770). For example, the first electronic device (410) can readjust (or resize) the size of the third content (1460) in proportion to the distance the first electronic device (410) has moved, and display the third content (1770) whose size has been reduced.

도 18a 및 도 18b는 일 실시예에 따른 전자 장치들 간에 공유 컨텐츠를 표시하는 동작의 예를 도시하는 도면들이다.FIGS. 18A and 18B are diagrams illustrating examples of operations for displaying shared content between electronic devices according to one embodiment.

일 실시예에 따라, 도 18a 및 도 18b는, 제1 전자 장치(410)(또는 제1 사용자(A))와 제2 전자 장치(420)(또는 제2 사용자(B)) 간의 상대적 위치 및 컨텐츠 표시 기준 위치에 기반하여 컨텐츠를 표시하는 예를 나타낼 수 있다.According to one embodiment, FIGS. 18A and 18B may illustrate examples of displaying content based on a relative position and a content display reference position between a first electronic device (410) (or a first user (A)) and a second electronic device (420) (or a second user (B)).

일 실시예에 따라, 도 18a 및 도 18b에서는, 도 18a에 예시한 바와 같이, 제1 전자 장치(410)와 제2 전자 장치(420)가 대면하게 위치한 상태에서, 제1 전자 장치(410)의 제1 표시 영역(1410)과 제2 전자 장치(420)의 제2 표시 영역(1420)에 기반하여 중첩 영역(1400)이 제공되는 예를 나타낼 수 있다. 일 실시예에 따라, 도 18a에 예시한 바와 같이, 제1 전자 장치(410)의 제1 사용자(A)는 제1 사용자(A)가 전면을 바라보는 기준으로 우측 대각선 방향으로 바라보고, 제2 전자 장치(420)의 제2 사용자(B)는 제2 사용자(B)가 전면을 바라보는 기준으로 좌측 대각선 방향을 바라보고 있는 상태일 수 있다. 예를 들어, 제1 사용자(A)와 제2 사용자(B)의 시야각이 정면이 아닌 사선 방향을 향하고, 각 시야각에 기반하여 중첩 영역이 형성된 경우의 예를 나타낼 수 있다.According to one embodiment, FIGS. 18A and 18B may illustrate an example in which an overlapping area (1400) is provided based on a first display area (1410) of the first electronic device (410) and a second display area (1420) of the second electronic device (420) when the first electronic device (410) and the second electronic device (420) are positioned facing each other as illustrated in FIG. 18A. According to one embodiment, as illustrated in FIG. 18A, a first user (A) of the first electronic device (410) may look in a right diagonal direction with respect to the first user (A) looking at the front, and a second user (B) of the second electronic device (420) may look in a left diagonal direction with respect to the second user (B) looking at the front. For example, an example can be presented where the field of view of the first user (A) and the second user (B) is oriented in an oblique direction rather than a frontal direction, and an overlapping area is formed based on each field of view.

도 14b를 참조하면, 동작 <1801>에서, 제1 전자 장치(410)는 제1 표시 영역(1410)에 기반하여 제1 컨텐츠(1830)을 표시하고, 제2 전자 장치(420)는 제2 표시 영역(1420)에 기반하여 제2 컨텐츠(1840)을 표시하는 상태일 수 있다. 일 실시예에 따라, 제2 전자 장치(420)는 사용자 입력에 기반하여 제2 컨텐츠(1840)의 공유 요청을 감지할 수 있다.Referring to FIG. 14B, in operation <1801>, the first electronic device (410) may display first content (1830) based on the first display area (1410), and the second electronic device (420) may display second content (1840) based on the second display area (1420). According to one embodiment, the second electronic device (420) may detect a sharing request of the second content (1840) based on a user input.

일 실시예에 따르면, 제2 전자 장치(420)는 제2 컨텐츠(1840)의 공유 요청에 응답하여, 제1 전자 장치(410)와 제2 전자 장치(420) 간의 상대적 위치를 고려하여 제2 컨텐츠(1840)를 표시하도록 동작할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 제1 전자 장치(410) 사이의 공유 영역을 결정하고, 공유 영역에 관련된 공유 정보와 제2 컨텐츠(1840)를 제1 전자 장치(410)로 전송할 수 있다.In one embodiment, the second electronic device (420) may operate to display the second content (1840) in response to a request to share the second content (1840), taking into account the relative positions between the first electronic device (410) and the second electronic device (420). In one embodiment, the second electronic device (420) may determine a shared area between the first electronic device (410) and transmit shared information related to the shared area and the second content (1840) to the first electronic device (410).

동작 <1803>에서, 제2 전자 장치(420)는 제2 표시 영역(1420)에서 제1 전자 장치(410)와 제2 전자 장치(420) 사이의 상대적 위치를 고려한 영역(예: 공유 영역)에 기반하여 제2 컨텐츠(1840)를 표시할 수 있다. 예를 들어, 제2 전자 장치(420)는 제2 표시 영역(1420)에서 제2 컨텐츠(1840)의 위치를 공유 영역에 대응하는 위치(예: 제2 표시 영역(1420)의 좌측 영역)로 이동 배치하여 표시할 수 있다.In operation <1803>, the second electronic device (420) may display the second content (1840) based on an area (e.g., a shared area) that takes into account the relative positions between the first electronic device (410) and the second electronic device (420) in the second display area (1420). For example, the second electronic device (420) may display the second content (1840) by moving the position of the second content (1840) in the second display area (1420) to a position corresponding to the shared area (e.g., a left area of the second display area (1420)).

동작 <1803>에서, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제1 전자 장치(410)와 제2 전자 장치(420) 사이의 상대적 위치가 고려된 영역(예: 공유 정보에 기반한 공유 영역)에 기반하여 제2 컨텐츠(1840)를 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제2 컨텐츠(1840)의 위치를 공유 영역에 대응하는 위치(예: 제1 표시 영역(1410)의 우측 영역)에 배치하여 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제2 전자 장치(420)로부터 공유된 제2 컨텐츠(1840)의 표시에 대응하여, 제1 전자 장치(410)에서 이전에 표시 중이던 제1 컨텐츠(1830)를 이동 배치하여 표시할 수 있다. 예를 들어, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제1 컨텐츠(1830)의 위치를 제2 컨텐츠(1840)가 표시되는 위치와 반대되는 위치(예: 제1 표시 영역(1410)의 좌측 영역)에 이동 배치하여 표시할 수 있다. 일 실시예에 따르면, 제1 전자 장치(410)는 제2 컨텐츠(1840)의 표시에 대응하여, 제1 표시 영역(1410)의 레이아웃을 재배치할 수 있고, 이전에 표시 중이던 제1 컨텐츠(1830)의 이동 배치 시, 제1 컨텐츠(1830)의 크기(또는 해상도 또는 윈도우 크기)를 조정(또는 리사이징)하여, 제1 컨텐츠(1830)의 크기를 축소하여 표시할 수 있다.In operation <1803>, the first electronic device (410) may display the second content (1840) based on an area (e.g., a shared area based on shared information) in which a relative position between the first electronic device (410) and the second electronic device (420) is considered in the first display area (1410). For example, the first electronic device (410) may display the second content (1840) by arranging it in a location corresponding to the shared area (e.g., a right area of the first display area (1410)) in the first display area (1410). According to one embodiment, the first electronic device (410) may display the first content (1830) previously displayed on the first electronic device (410) by moving it in response to the display of the second content (1840) shared from the second electronic device (420). For example, the first electronic device (410) may move and display the first content (1830) in the first display area (1410) to a location opposite to the location where the second content (1840) is displayed (e.g., a left area of the first display area (1410)). According to one embodiment, the first electronic device (410) may rearrange the layout of the first display area (1410) in response to the display of the second content (1840), and when moving and arranging the first content (1830) that was previously being displayed, the first electronic device (410) may adjust (or resize) the size (or resolution or window size) of the first content (1830) to display the first content (1830) in a reduced size.

동작 <1803>에서, 제2 컨텐츠(1840)의 공유가 이루어진 상황에서, 제1 전자 장치(410) 및/또는 제2 전자 장치(420)는 사용자 입력에 대응하는 입력 값(또는 제어 값)을 공유할 수 있다. 예를 들어, 제1 사용자(A)는 제2 컨텐츠(1840)에서 지정된 인터랙션(예: 컨텐츠 편집(예: 이미지(1850) 추가))을 수행할 수 있다. 일 실시예에 따라, 제1 전자 장치(410)는 제1 사용자(A)의 사용자 입력에 따른 입력 값을 제2 전자 장치(420)로 전송할 수 있다.In operation <1803>, in a situation where sharing of the second content (1840) is performed, the first electronic device (410) and/or the second electronic device (420) may share an input value (or a control value) corresponding to a user input. For example, the first user (A) may perform a specified interaction (e.g., content editing (e.g., adding an image (1850))) in the second content (1840). According to one embodiment, the first electronic device (410) may transmit an input value according to the user input of the first user (A) to the second electronic device (420).

동작 <1805>에서, 제1 전자 장치(410)는 제1 표시 영역(1410)에서 제2 컨텐츠(1840)에 대한 사용자 입력에 응답하여, 관련 동작을 처리(예: 이미지(1850) 추가)하고, 그 처리 결과가 반영된(예: 이미지(1850)가 추가된) 제2 컨텐츠(1840)를 공유 영역에 기반하여 표시할 수 있다.In operation <1805>, the first electronic device (410) may process a related operation (e.g., add an image (1850)) in response to a user input for second content (1840) in the first display area (1410), and display the second content (1840) to which the processing result is reflected (e.g., the image (1850) is added) based on the shared area.

동작 <1805>에서, 제2 전자 장치(420)는 제1 전자 장치(410)로부터 제2 표시 영역(1420)에서 공유 영역에 기반하여 표시 중인 제2 컨텐츠(1840)에 관련된 입력 값을 수신할 수 있다. 일 실시예에 따르면, 제2 전자 장치(420)는 제2 컨텐츠(1840)에 대해 입력 값에 기반하여 관련 동작을 처리(예: 이미지(1850) 추가)하고, 그 처리 결과가 반영된(예: 이미지(1850)이 추가된) 제2 컨텐츠(1840)를 공유 영역에 기반하여 표시할 수 있다.In operation <1805>, the second electronic device (420) may receive an input value related to second content (1840) being displayed based on a shared area in the second display area (1420) from the first electronic device (410). According to one embodiment, the second electronic device (420) may process a related operation (e.g., add an image (1850)) based on the input value for the second content (1840), and display the second content (1840) to which the processing result is reflected (e.g., add an image (1850)) based on the shared area.

본 개시의 일 실시예에 따른 전자 장치(101, 201)에서 수행하는 동작 방법은, 컨텐츠를 표시하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 동작 방법은, 상기 컨텐츠를 표시하는 동안, 상기 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 동작 방법은, 상기 전자 장치(101)의 제1 표시 영역과 상기 대상 전자 장치의 제2 표시 영역이 중첩되는 영역에 기반하여 공유 영역을 결정하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 동작 방법은, 상기 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 동작 방법은, 상기 공유 영역에 기반하여 상기 컨텐츠를 이동 배치하여 표시하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 동작 방법은, 상기 컨텐츠 및 상기 공유 정보를 상기 대상 전자 장치로 전송하여, 상기 대상 전자 장치가 상기 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하는 동작을 포함할 수 있다.An operation method performed in an electronic device (101, 201) according to one embodiment of the present disclosure may include an operation of displaying content. According to one embodiment, the operation method may include an operation of connecting with a target electronic device for sharing the content while displaying the content. According to one embodiment, the operation method may include an operation of determining a sharing area based on an area where a first display area of the electronic device (101) and a second display area of the target electronic device overlap. According to one embodiment, the operation method may include an operation of generating sharing information related to sharing of the content based on the sharing area. According to one embodiment, the operation method may include an operation of moving and arranging the content based on the sharing area. According to one embodiment, the operation method may include an operation of transmitting the content and the sharing information to the target electronic device, and controlling the target electronic device to display the content based on the sharing area.

일 실시예에 따르면, 상기 공유 영역을 결정하는 동작은, 상기 대상 전자 장치로부터 상기 대상 전자 장치에 관련된 제1 지정된 정보와 상기 전자 장치(101)에 관련된 제2 지정된 정보를 획득하는 동작, 상기 제1 지정된 정보와 상기 제2 지정된 정보에 기반하여 상기 공유 영역을 위한 중첩 영역을 계산하는 동작, 상기 중첩 영역의 적어도 일부 영역에 기반하여 상기 공유 영역을 결정하는 동작을 포함할 수 있다.According to one embodiment, the operation of determining the shared area may include an operation of obtaining, from the target electronic device, first designated information related to the target electronic device and second designated information related to the electronic device (101), an operation of calculating an overlapping area for the shared area based on the first designated information and the second designated information, and an operation of determining the shared area based on at least a portion of the overlapping area.

일 실시예에 따르면, 상기 제1 지정된 정보는, 상기 대상 전자 장치에 관련된 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보를 포함할 수 있다. 일 실시예에 따르면, 상기 제2 지정된 정보는, 상기 전자 장치(101)에 관련된 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보를 포함할 수 있다.According to one embodiment, the first specified information may include device capability information, location information, and/or display area information related to the target electronic device. According to one embodiment, the second specified information may include device capability information, location information, and/or display area information related to the electronic device (101).

일 실시예에 따르면, 상기 공유 정보를 생성하는 동작은, 상기 중첩 영역의 크기에 기반하여 상기 중첩 영역에 기반하여 컨텐츠를 공유할 지 여부를 결정하는 동작을 포함할 수 있다.In one embodiment, the operation of generating the shared information may include an operation of determining whether to share content based on the overlapping area based on the size of the overlapping area.

일 실시예에 따르면, 상기 공유 정보를 생성하는 동작은, 상기 중첩 영역의 크기가 지정된 기준 값 이상인지 판단하는 동작, 상기 중첩 영역의 크기가 지정된 기준 값 이상인 것을 판단하는 경우, 상기 중첩 영역에 기반하여 컨텐츠의 공유에 관련된 상기 공유 정보를 생성하는 동작을 포함할 수 있다.According to one embodiment, the operation of generating the shared information may include an operation of determining whether the size of the overlapping area is greater than or equal to a specified reference value, and an operation of generating the shared information related to sharing of content based on the overlapping area if it is determined that the size of the overlapping area is greater than or equal to the specified reference value.

일 실시예에 따르면, 상기 동작 방법은, 상기 중첩 영역의 크기가 지정된 기준 값 미만인 것을 판단하는 경우, 상기 전자 장치(101)의 상기 디스플레이(160)를 통해, 상기 대상 전자 장치와 중첩 영역 설정을 위해 위치를 이동하도록 가이드하는 가이드 정보를 제공하는 동작을 포함할 수 있다.According to one embodiment, the operating method may include an operation of providing guide information for guiding movement of a position for setting an overlapping area with the target electronic device through the display (160) of the electronic device (101) when determining that the size of the overlapping area is less than a specified reference value.

일 실시예에 따르면, 상기 공유 정보는, 컨텐츠의 표시 정보 및/또는 공유 영역 정보를 포함할 수 있다.According to one embodiment, the shared information may include display information of the content and/or shared area information.

일 실시예에 따르면, 상기 전송하는 동작은, 상기 컨텐츠를 상기 대상 전자 장치로 제공할 때, 미러링 공유, 실행 링크 공유, 또는 컨텐츠 공유에 기반하여 상기 대상 전자 장치와 상기 컨텐츠를 공유하는 동작을 포함할 수 있다.According to one embodiment, the transmitting operation may include an operation of sharing the content with the target electronic device based on mirroring sharing, execution link sharing, or content sharing when providing the content to the target electronic device.

일 실시예에 따르면, 상기 동작 방법은, 상기 전자 장치(101)와 상기 대상 전자 장치 간에 컨텐츠 공유가 이루어진 상황에서, 상기 대상 전자 장치와의 상대적 위치 변화를 모니터링하는 동작, 상기 상대적 위치 변화 감지에 기반하여 중첩 영역을 재설정하는 동작, 재설정된 중첩 영역에 기반하여 컨텐츠를 표시하고, 변경된 공유 정보를 대상 전자 장치로 전송하는 동작을 포함할 수 있다.According to one embodiment, the operating method may include an operation of monitoring a change in relative position with respect to the target electronic device in a situation where content is shared between the electronic device (101) and the target electronic device, an operation of resetting an overlapping area based on detection of the change in relative position, an operation of displaying content based on the reset overlapping area, and an operation of transmitting changed sharing information to the target electronic device.

본 개시의 일 실시예에 따른 전자 장치(101)의 프로세서(120)에 의해 실행 시, 상기 프로세서(120)가 동작들을 수행하도록 하는 인스트럭션들을 저장하는 비 일시적인(non-transitory) 컴퓨터로 읽을 수 있는 기록 매체(computer-readable medium)는, 컨텐츠를 표시하는 동작, 상기 컨텐츠를 표시하는 동안, 상기 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하는 동작, 상기 전자 장치(101)의 제1 표시 영역과 상기 대상 전자 장치의 제2 표시 영역이 중첩되는 영역에 기반하여 공유 영역을 결정하는 동작, 상기 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작, 상기 공유 영역에 기반하여 상기 컨텐츠를 이동 배치하여 표시하는 동작, 및 상기 컨텐츠 및 상기 공유 정보를 상기 대상 전자 장치로 전송하여, 상기 대상 전자 장치가 상기 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하는 동작을 수행하도록 하는 컴퓨터로 읽을 수 있는 기록 매체를 포함할 수 있다.A non-transitory computer-readable medium storing instructions that, when executed by a processor (120) of an electronic device (101) according to one embodiment of the present disclosure, cause the processor (120) to perform operations may include a computer-readable medium that causes the instructions to perform operations such as: displaying content; connecting with a target electronic device for sharing the content while displaying the content; determining a sharing area based on an area where a first display area of the electronic device (101) and a second display area of the target electronic device overlap; generating sharing information related to sharing of the content based on the sharing area; moving and arranging and displaying the content based on the sharing area; and transmitting the content and the sharing information to the target electronic device and controlling the target electronic device to display the content based on the sharing area.

전술한 실시예 및 그 기술적 특징은 잠재적으로 두 실시예 또는 특징 사이에 충돌이 없는 한 각각의 모든 조합에서 서로 결합될 수 있다는 것이 이해될 수 있을 것이다. 예를 들어, 전술한 실시예 중 2개 이상의 각각의 모든 조합이 본 개시 내용 내에 구상되고 포함될 수 있다. 임의의 실시예로부터의 하나 이상의 특징은 임의의 다른 실시예에 통합될 수 있으며, 대응하는 장점 또는 장점들을 제공할 수 있다.It will be appreciated that the above-described embodiments and their technical features may be combined with each other in any and all combinations, provided that there is no conflict between the two embodiments or features. For example, any and all combinations of two or more of the above-described embodiments may be envisioned and incorporated within the present disclosure. One or more features from any embodiment may be incorporated into any other embodiment, and may provide a corresponding advantage or advantages.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic devices according to various embodiments disclosed in this document may be devices of various forms. The electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliance devices. The electronic devices according to embodiments of this document are not limited to the above-described devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성 요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성 요소를 다른 해당 구성 요소와 구분하기 위해 사용될 수 있으며, 해당 구성 요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성 요소가 다른(예: 제2) 구성 요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성 요소가 상기 다른 구성 요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성 요소를 통하여 연결될 수 있다는 것을 의미한다.It should be understood that the various embodiments of this document and the terminology used herein are not intended to limit the technical features described in this document to specific embodiments, but include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item can include one or more of the items, unless the context clearly dictates otherwise. In this document, each of the phrases "A or B", "at least one of A and B", "at least one of A or B", "A, B, or C", "at least one of A, B, and C", and "at least one of A, B, or C" can include any one of the items listed together in the corresponding phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "second" may be used merely to distinguish the component from other corresponding components and do not limit the components in any other respect (e.g., importance or order). When a component (e.g., a first) is referred to as "coupled" or "connected" to another (e.g., a second) component, with or without the terms "functionally" or "communicatively," it means that the component can be connected to the other component directly (e.g., by wire), wirelessly, or through a third component.

본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.The term "module" used in various embodiments of this document may include a unit implemented in hardware, software or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integrally configured component or a minimum unit of the component or a portion thereof that performs one or more functions. For example, according to one embodiment, a module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document may be implemented as software (e.g., a program (140)) including one or more instructions stored in a storage medium (e.g., an internal memory (136) or an external memory (138)) readable by a machine (e.g., an electronic device (101)). For example, a processor (e.g., a processor (120)) of the machine (e.g., an electronic device (101)) may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the called at least one instruction. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, ‘non-transitory’ simply means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.

일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in the present document may be provided as included in a computer program product. The computer program product may be traded between a seller and a buyer as a commodity. The computer program product may be distributed in the form of a machine-readable storage medium (e.g., a compact disc read only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play StoreTM ) or directly between two user devices (e.g., smart phones). In the case of online distribution, at least a part of the computer program product may be at least temporarily stored or temporarily generated in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or an intermediary server.

다양한 실시예들에 따르면, 상기 기술한 구성 요소들의 각각의 구성 요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체들을 포함할 수 있으며, 복수의 개체들 중 일부는 다른 구성 요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성 요소들 중 하나 이상의 구성 요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성 요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성 요소들(예: 모듈 또는 프로그램)은 하나의 구성 요소로 통합될 수 있다. 이런 경우, 통합된 구성 요소는 상기 복수의 구성 요소들 각각의 구성 요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성 요소들 중 해당 구성 요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱(heuristic)하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., a module or a program) of the above-described components may include a single or multiple entities, and some of the multiple entities may be separately arranged in other components. According to various embodiments, one or more of the components or operations of the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, the multiple components (e.g., a module or a program) may be integrated into one component. In such a case, the integrated component may perform one or more functions of each of the multiple components identically or similarly to those performed by the corresponding component of the multiple components before the integration. According to various embodiments, the operations performed by the module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.

본 명세서와 도면에 개시된 본 개시의 다양한 실시예들은 본 개시의 기술 내용을 쉽게 설명하고 본 개시의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 개시의 범위를 한정하고자 하는 것은 아니다. 따라서 본 개시의 범위는 여기에 개시된 실시예들 이외에도 본 개시의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.The various embodiments of the present disclosure disclosed in this specification and drawings are merely specific examples presented to easily explain the technical content of the present disclosure and to help understand the present disclosure, and are not intended to limit the scope of the present disclosure. Therefore, the scope of the present disclosure should be interpreted to include all changes or modified forms derived based on the technical idea of the present disclosure in addition to the embodiments disclosed herein.

101, 201, 410, 420: 전자 장치
120: 프로세서
130: 메모리
160: 디스플레이 모듈 (또는 디스플레이)
190: 통신 모듈 (또는 통신 회로)
101, 201, 410, 420: Electronic Devices
120: Processor
130: Memory
160: Display module (or display)
190: Communication module (or communication circuit)

Claims (20)

Translated fromKorean
전자 장치(101)에 있어서,
디스플레이(160);
통신 회로(190);
인스트럭션들을 저장하는 메모리(130); 및
프로세서(120),
상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금,
컨텐츠를 표시하고,
상기 컨텐츠를 표시하는 동안, 상기 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하고,
상기 전자 장치(101)의 제1 표시 영역과 상기 대상 전자 장치의 제2 표시 영역이 중첩되는 영역에 기반하여 공유 영역을 결정하고,
상기 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하고,
상기 공유 영역에 기반하여 상기 컨텐츠를 이동 배치하여 표시하고, 및
상기 컨텐츠 및 상기 공유 정보를 상기 대상 전자 장치로 전송하여, 상기 대상 전자 장치가 상기 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하도록 하는 전자 장치.
In an electronic device (101),
display (160);
Communication circuit (190);
Memory (130) for storing instructions; and
Processor (120),
The above instructions, when executed by the processor (120), cause the electronic device (101) to:
Display the content,
While displaying the above content, connect to the target electronic device for sharing the above content,
A shared area is determined based on the area where the first display area of the electronic device (101) and the second display area of the target electronic device overlap,
Generate sharing information related to sharing of content based on the above shared area,
Displaying the content by moving it based on the shared area, and
An electronic device that transmits the content and the shared information to the target electronic device, thereby controlling the target electronic device to display the content based on the shared area.
제1항에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금,
상기 대상 전자 장치로부터 상기 대상 전자 장치에 관련된 제1 지정된 정보와 상기 전자 장치(101)에 관련된 제2 지정된 정보를 획득하고,
상기 제1 지정된 정보와 상기 제2 지정된 정보에 기반하여 상기 공유 영역을 위한 중첩 영역을 계산하고,
상기 중첩 영역의 적어도 일부 영역에 기반하여 상기 공유 영역을 결정하도록 하는 전자 장치.
In the first paragraph, the instructions, when executed by the processor (120), cause the electronic device (101) to:
Obtaining first designated information related to the target electronic device and second designated information related to the electronic device (101) from the target electronic device,
Calculating an overlapping area for the shared area based on the first specified information and the second specified information,
An electronic device that determines the shared area based on at least a portion of the overlapping area.
제2항에 있어서,
상기 제1 지정된 정보는, 상기 대상 전자 장치에 관련된 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보를 포함하고,
상기 제2 지정된 정보는, 상기 전자 장치(101)에 관련된 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보를 포함하는 전자 장치.
In the second paragraph,
The above first designated information includes device capability information, location information, and/or display area information related to the target electronic device,
The second specified information is an electronic device including device capability information, location information, and/or display area information related to the electronic device (101).
제2항에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금,
상기 중첩 영역의 크기에 기반하여 상기 중첩 영역에 기반하여 컨텐츠를 공유할 지 여부를 결정하도록 하는 전자 장치.
In the second paragraph, the instructions, when executed by the processor (120), cause the electronic device (101) to:
An electronic device that determines whether to share content based on the size of the overlapping area.
제4항에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금,
상기 중첩 영역의 크기가 지정된 기준 값 이상인지 판단하고,
상기 중첩 영역의 크기가 지정된 기준 값 이상인 것을 판단하는 경우, 상기 중첩 영역에 기반하여 컨텐츠의 공유에 관련된 상기 공유 정보를 생성하도록 하는 전자 장치.
In the fourth paragraph, the instructions, when executed by the processor (120), cause the electronic device (101) to:
Determine whether the size of the above overlapping area is greater than or equal to a specified standard value,
An electronic device that generates sharing information related to sharing of content based on the overlapping area when determining that the size of the overlapping area is greater than a specified reference value.
제5항에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금,
상기 중첩 영역의 크기가 지정된 기준 값 미만인 것을 판단하는 경우, 상기 전자 장치(101)의 상기 디스플레이(160)를 통해, 상기 대상 전자 장치와 중첩 영역 설정을 위해 위치를 이동하도록 가이드하는 가이드 정보를 제공하도록 하는 전자 장치.
In the fifth paragraph, the instructions, when executed by the processor (120), cause the electronic device (101) to:
An electronic device that provides guide information to guide movement of a position for setting an overlapping area with the target electronic device through the display (160) of the electronic device (101) when determining that the size of the overlapping area is less than a specified reference value.
제5항에 있어서,
상기 공유 정보는, 컨텐츠의 표시 정보 및/또는 공유 영역 정보를 포함하는 전자 장치.
In paragraph 5,
The above shared information is an electronic device including content display information and/or shared area information.
제2항에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금,
상기 통신 회로(190)를 이용하여, 상기 컨텐츠를 상기 대상 전자 장치로 제공할 때, 미러링 공유, 실행 링크 공유, 또는 컨텐츠 공유에 기반하여 상기 대상 전자 장치와 상기 컨텐츠를 공유하도록 하는 전자 장치.
In the second paragraph, the instructions, when executed by the processor (120), cause the electronic device (101) to:
An electronic device that shares the content with the target electronic device based on mirroring sharing, execution link sharing, or content sharing when providing the content to the target electronic device using the communication circuit (190).
제2항에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금,
상기 전자 장치(101)와 상기 대상 전자 장치 간에 컨텐츠 공유가 이루어진 상황에서, 상기 대상 전자 장치와의 상대적 위치 변화를 모니터링하고,
상기 상대적 위치 변화 감지에 기반하여 중첩 영역을 재설정하도록 하는 전자 장치.
In the second paragraph, the instructions, when executed by the processor (120), cause the electronic device (101) to:
In a situation where content is shared between the electronic device (101) and the target electronic device, the relative position change with respect to the target electronic device is monitored,
An electronic device that resets the overlapping region based on detection of the change in said relative position.
제9항에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 때, 상기 전자 장치(101)로 하여금,
재설정된 중첩 영역에 기반하여 컨텐츠를 표시하고,
변경된 공유 정보를 상기 대상 전자 장치로 전송하도록 하는 전자 장치.
In the 9th paragraph, the instructions, when executed by the processor (120), cause the electronic device (101) to:
Display content based on the reset nested area,
An electronic device that transmits changed shared information to the target electronic device.
전자 장치(101)의 동작 방법에 있어서,
컨텐츠를 표시하는 동작;
상기 컨텐츠를 표시하는 동안, 상기 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하는 동작;
상기 전자 장치(101)의 제1 표시 영역과 상기 대상 전자 장치의 제2 표시 영역이 중첩되는 영역에 기반하여 공유 영역을 결정하는 동작;
상기 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작;
상기 공유 영역에 기반하여 상기 컨텐츠를 이동 배치하여 표시하는 동작; 및
상기 컨텐츠 및 상기 공유 정보를 상기 대상 전자 장치로 전송하여, 상기 대상 전자 장치가 상기 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하는 동작을 포함하는 방법.
In the operating method of an electronic device (101),
The action of displaying content;
An action of connecting with a target electronic device for sharing said content while displaying said content;
An operation of determining a shared area based on an area where a first display area of the electronic device (101) and a second display area of the target electronic device overlap;
An action to generate sharing information related to sharing of content based on the above shared area;
An action of displaying the content by moving it based on the shared area; and
A method comprising an action of transmitting the content and the shared information to the target electronic device and controlling the target electronic device to display the content based on the shared area.
제11항에 있어서, 상기 공유 영역을 결정하는 동작은,
상기 대상 전자 장치로부터 상기 대상 전자 장치에 관련된 제1 지정된 정보와 상기 전자 장치(101)에 관련된 제2 지정된 정보를 획득하는 동작,
상기 제1 지정된 정보와 상기 제2 지정된 정보에 기반하여 상기 공유 영역을 위한 중첩 영역을 계산하는 동작,
상기 중첩 영역의 적어도 일부 영역에 기반하여 상기 공유 영역을 결정하는 동작을 포함하는 방법.
In the 11th paragraph, the operation of determining the shared area is:
An operation of obtaining first designated information related to the target electronic device and second designated information related to the electronic device (101) from the target electronic device;
An operation of calculating an overlapping area for the shared area based on the first designated information and the second designated information;
A method comprising determining the shared area based on at least a portion of the overlapping area.
제12항에 있어서,
상기 제1 지정된 정보는, 상기 대상 전자 장치에 관련된 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보를 포함하고,
상기 제2 지정된 정보는, 상기 전자 장치(101)에 관련된 장치 능력 정보, 위치 정보, 및/또는 표시 영역 정보를 포함하는 방법.
In Article 12,
The above first designated information includes device capability information, location information, and/or display area information related to the target electronic device,
A method wherein the second specified information includes device capability information, location information, and/or display area information related to the electronic device (101).
제12항에 있어서, 상기 공유 정보를 생성하는 동작은,
상기 중첩 영역의 크기에 기반하여 상기 중첩 영역에 기반하여 컨텐츠를 공유할 지 여부를 결정하는 동작을 포함하는 방법.
In the 12th paragraph, the operation of generating the shared information is:
A method comprising: determining whether to share content based on the size of the overlapping area;
제14항에 있어서, 상기 공유 정보를 생성하는 동작은,
상기 중첩 영역의 크기가 지정된 기준 값 이상인지 판단하는 동작,
상기 중첩 영역의 크기가 지정된 기준 값 이상인 것을 판단하는 경우, 상기 중첩 영역에 기반하여 컨텐츠의 공유에 관련된 상기 공유 정보를 생성하는 동작을 포함하는 방법.
In the 14th paragraph, the operation of generating the shared information is:
An action to determine whether the size of the above overlapping area is greater than or equal to a specified reference value;
A method including an action of generating sharing information related to sharing of content based on the overlapping area when it is determined that the size of the overlapping area is greater than a specified reference value.
제15항에 있어서,
상기 중첩 영역의 크기가 지정된 기준 값 미만인 것을 판단하는 경우, 상기 전자 장치(101)의 상기 디스플레이(160)를 통해, 상기 대상 전자 장치와 중첩 영역 설정을 위해 위치를 이동하도록 가이드하는 가이드 정보를 제공하는 동작을 더 포함하는 방법.
In Article 15,
A method further comprising: providing guide information for guiding movement of a position for setting an overlapping area with the target electronic device through the display (160) of the electronic device (101) when determining that the size of the overlapping area is less than a specified reference value.
제15항에 있어서,
상기 공유 정보는, 컨텐츠의 표시 정보 및/또는 공유 영역 정보를 포함하는 방법.
In Article 15,
The above shared information is a method including display information of content and/or shared area information.
제12항에 있어서, 상기 전송하는 동작은,
상기 컨텐츠를 상기 대상 전자 장치로 제공할 때, 미러링 공유, 실행 링크 공유, 또는 컨텐츠 공유에 기반하여 상기 대상 전자 장치와 상기 컨텐츠를 공유하는 동작을 포함하는 방법.
In the 12th paragraph, the transmitting operation is:
A method comprising an action of sharing the content with the target electronic device based on mirroring sharing, execution link sharing, or content sharing when providing the content to the target electronic device.
제12항에 있어서,
상기 전자 장치(101)와 상기 대상 전자 장치 간에 컨텐츠 공유가 이루어진 상황에서, 상기 대상 전자 장치와의 상대적 위치 변화를 모니터링하는 동작,
상기 상대적 위치 변화 감지에 기반하여 중첩 영역을 재설정하는 동작,
재설정된 중첩 영역에 기반하여 컨텐츠를 표시하고, 변경된 공유 정보를 대상 전자 장치로 전송하는 동작을 포함하는 방법.
In Article 12,
In a situation where content is shared between the electronic device (101) and the target electronic device, an operation of monitoring a change in relative position with the target electronic device;
An action to reset the overlapping area based on the detection of the change in the above relative position,
A method comprising displaying content based on a reset overlapping region and transmitting changed shared information to a target electronic device.
전자 장치의 프로세서에 의해 실행 시, 상기 프로세서가 동작들을 수행하도록 하는 인스트럭션들(instructions)을 저장하는 비 일시적인(non-transitory) 컴퓨터로 읽을 수 있는 기록 매체(computer-readable medium)에 있어서,
컨텐츠를 표시하는 동작,
상기 컨텐츠를 표시하는 동안, 상기 컨텐츠를 공유하기 위한 대상 전자 장치와 연결하는 동작,
상기 전자 장치(101)의 제1 표시 영역과 상기 대상 전자 장치의 제2 표시 영역이 중첩되는 영역에 기반하여 공유 영역을 결정하는 동작,
상기 공유 영역에 기반하여 컨텐츠의 공유에 관련된 공유 정보를 생성하는 동작,
상기 공유 영역에 기반하여 상기 컨텐츠를 이동 배치하여 표시하는 동작, 및
상기 컨텐츠 및 상기 공유 정보를 상기 대상 전자 장치로 전송하여, 상기 대상 전자 장치가 상기 컨텐츠를 공유 영역에 기반하여 표시하도록 제어하는 동작을 수행하도록 하는 컴퓨터로 읽을 수 있는 기록 매체.
A non-transitory computer-readable medium storing instructions that, when executed by a processor of an electronic device, cause the processor to perform operations,
Actions that display content,
While displaying the above content, an action of connecting with a target electronic device for sharing the above content;
An operation of determining a shared area based on an area where the first display area of the electronic device (101) and the second display area of the target electronic device overlap;
An action to generate sharing information related to sharing of content based on the above shared area;
An action of displaying the content by moving it based on the shared area, and
A computer-readable recording medium that transmits the content and the shared information to the target electronic device, thereby causing the target electronic device to perform an operation of controlling the display of the content based on the shared area.
KR1020240008750A2023-12-122024-01-19Electronic device, method and recording medium for providing shared contents between electronic devicesPendingKR20250090122A (en)

Applications Claiming Priority (2)

Application NumberPriority DateFiling DateTitle
KR10202301797492023-12-12
KR202301797492023-12-12

Publications (1)

Publication NumberPublication Date
KR20250090122Atrue KR20250090122A (en)2025-06-19

Family

ID=96223313

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020240008750APendingKR20250090122A (en)2023-12-122024-01-19Electronic device, method and recording medium for providing shared contents between electronic devices

Country Status (1)

CountryLink
KR (1)KR20250090122A (en)

Similar Documents

PublicationPublication DateTitle
US11847258B2 (en)Method for wireless connection in augmented reality environment and electronic device therefor
US12254234B2 (en)Apparatus and method for providing contents related to augmented reality service between electronic device and wearable electronic device
US11733952B2 (en)Wearable electronic device including display, method for controlling display, and system including wearable electronic device and case
US20240103289A1 (en)Wearable electronic device and method for controlling power path thereof
US20230199328A1 (en)Method of removing interference and electronic device performing the method
KR20230067197A (en)Apparatus and method for providing contents related to augmented reality service between electronic device and wearable electronic device
KR20230044833A (en)Electronic device and the method for representing contents
US12068531B2 (en)Wearable electronic device including variable ground
US20230196689A1 (en)Electronic device for using virtual input device and operation method in the electronic device
KR20230065845A (en)Wearable electronic device comprising variable ground
KR20220162956A (en)Electronic device for supporting various communication during video call and operating method thereof
KR20250090122A (en)Electronic device, method and recording medium for providing shared contents between electronic devices
US20250035932A1 (en)Wearable electronic device including transparent display
US20250071241A1 (en)Wearable device performing call using virtual object and method for controlling the same
US20250181158A1 (en)Display module control method and electronic device for carrying out same
US20250322634A1 (en)Wearable device for controlling at least one virtual object according to attributes of at least one virtual object, and method for controlling same
US20250199612A1 (en)Wearable device providing immersive experience and method of controlling same
KR20250023244A (en)Method for supporting object selection in virtual environment and electronic device supporting the same
US20240046530A1 (en)Method of controlling display module, and electronic device performing the method
US20240078069A1 (en)Electronic device and method for controlling display of at least one external object among one or more external objects
KR20240050198A (en)Wearable device for guiding user&#39;s posture and method thereof
KR20250028955A (en)A wearable device making a call using a virtual object and control method thereof
KR20250018055A (en)Wearable electronic device comprising transparent display
KR20240094948A (en)Electronic device and method for obtaining information for object
KR20250134486A (en)Electronic device and method for recognizing object thereof

Legal Events

DateCodeTitleDescription
PA0109Patent application

Patent event code:PA01091R01D

Comment text:Patent Application

Patent event date:20240119

PG1501Laying open of application

[8]ページ先頭

©2009-2025 Movatter.jp