신의 영역에 근접? 사람 눈과 똑닮은 인공 눈 나왔다

[테크]by 동아일보

실제 망막과 형태-크기까지 비슷…

광수용체 10배 더 담을 수 있어

빛 빨리 감지하고 시력 더 좋아

동아일보

판즈융 홍콩과학기술대 교수 연구팀이 개발한 인공 눈의 모습. 네이처 제공

홍콩의 과학자들이 사람 눈의 망막 구조를 모방한 인공 눈을 개발했다. 사람 눈을 모방한 인공 눈을 개발한 건 처음이 아니지만 사람 눈 구조에 한층 가까워졌고 시력은 더 좋아졌다.


판즈융 홍콩과학기술대 교수 연구팀은 사람의 눈보다 10배 많은 광수용체를 담을 수 있는 인공 눈을 개발했다고 국제학술지 네이처에 21일 공개했다.


눈은 사람이 개발한 그 어떤 사진기보다 월등하고 정교하다. 두 눈으로 비교적 넓은 지역을 한번에 볼 수 있고 어두운 곳을 비추는 아주 실낱같은 빛도 잡아내는 민감성까지 갖췄다. 눈이 이런 능력을 가진 것은 망막 덕분이다. 망막은 안구 벽의 가장 안쪽에 돔 형태의 얇고 투명한 막으로 약한 빛을 감지하는 감각세포인 광수용체가 들어 있다. 망막 1cm²에 들어있는 광수용체만 약 1000만 개에 이른다.


김재휘 건양의대 김안과병원 교수는 “둥그런 돔 형태의 망막은 빛을 모아 초점을 맞추는 역할을, 망막 속 광수용체는 빛을 감지해 전기적 신호로 바꿔 신경을 통해 뇌로 전달하는 역할을 한다”며 “망막은 눈의 기능을 결정하는 핵심 부위”라고 말했다.


과학자들은 눈의 구조를 모방해 인공 눈을 개발하려는 시도를 꾸준히 이어왔다. 로봇이나 각종 과학 장비의 눈으로 활용하거나 시각장애인에게 시각을 되찾아줄 수 있다는 기대 때문이다. 하지만 망막의 복잡한 구조를 모방하는 데는 한계가 많았다.


판 교수팀은 기상증착법이란 기술을 이용해 그동안 모방하기 어려웠던 망막의 형태와 구조를 실제와 비슷하게 제작했다. 기상증착법이란 원하는 물질이 든 재료를 반응기 안에 넣어 분해시킨 다음 화학 반응을 통해 원하는 형태를 만드는 기술이다. 연구팀은 광수용체를 만들 소재로 차세대 태양전지에 활용되는 신소재인 페로브스카이트를 선택했다. 페로브스카이트는 독특한 결정 구조를 가진 반도체 물질을 통틀어 부르는 말이다. 빛을 전기로 바꾸거나 반대로 전기를 빛으로 바꾸는 특성이 있다. 색 재현성이 뛰어나 빛을 선명하게 인식하고 제조 공정도 간단하다.


연구팀이 개발한 인공 눈은 지름 2cm로 속이 전기가 통하는 전도성 액체로 채워져 있다. 실제 사람 눈과 크기가 비슷하지만 빛을 감지하는 속도가 더 빠르다. 인공 눈은 30∼40밀리초(1밀리초는 1000분의 1초) 만에 빛을 감지하는 반면 사람 눈은 40∼150밀리초가 소요된다. 최대 5배가량 인식 속도가 빠른 셈이다.


연구팀이 만든 인공 망막은 1nm(나노미터·1nm는 10억분의 1m) 수준의 페로브스카이트 나노선 3개로 구성된다. 나노선 하나는 광수용체 하나의 역할을 한다. 연구팀은 “인공 눈은 나노선 3개만으로도 가로세로 2mm짜리의 알파벳 ‘E’와 ‘I’, ‘J’를 인지했다”며 “이 기술을 적용하면 사람이 가진 광수용체 수보다 10배가 더 많은 나노선 광수용체를 넣을 수 있다”고 밝혔다.


현재 개발된 인공 눈은 외부 전원이 필요하다. 연구팀은 자급자족 방식으로 소형 태양전지를 활용해 나노선에 전기를 공급하는 기술도 개발하고 있다.


앞서 마이클 매캘파인 미국 미네소타대 기계공학과 교수팀은 2018년 3D프린터로 광수용체를 쌓아올려 반구 모양의 인공 눈을 개발했다. 연구팀은 유리로 된 반구 모양의 돔에 반도체 고분자 물질을 쌓아 올렸다. 당시 이 물질은 빛을 전자신호로 바꿔 광수용체와 같은 역할을 한 것으로 분석됐다. 다만 실제 광수용체만큼의 세밀한 구조를 구현하지 못했다. 판 교수는 “사람의 눈을 모방한 인공 눈을 개발할 수 있다는 것을 증명했다”며 “과학기구나 전자제품, 로봇 등에 활용될 수 있을 것”이라고 밝혔다.


고재원 동아사이언스 기자 jawon1212@donga.com

2020.05.25원문링크 바로가기

본 콘텐츠의 저작권은 저자 또는 제공처에 있으며, 이를 무단 이용하는 경우 저작권법 등에 따라 법적 책임을 질 수 있습니다.

Copyright © ZUM internet Corp. All Rights Reserved.