J Urol Oncol > Volume 20(3); 2022 > Article
비뇨의학 연구실 인공지능

Abstract

The development of lab-on-a-chip technology based on microfluidics has been used from diagnostic test to drug screening in biomedical science. Lab-on-a-chip technology is also being expanded to the concept of an organ-on-a-chip with the development of cell biology and biocompatible material development. In addition, artificial intelligence (AI) has brought dramatic changes over the past few years in science, industry, defense, science and healthcare. AI-generated output is beginning to prove comparable or even superior to that of human experts. Lab-on-a-chip technology in specific microfluidic devices can overcome the above bottlenecks as a platform for building and implementing AI in a large-scale, cost-effective, high-throughput, automated and multiplexed manner. This platform, high-throughput imaging, becomes an important tool because it can generate high-content information which are too complex to analyze with conventional computational tools. In addition to the capabilities of a data provider, lab-on-a-chip technology can also be leveraged to enable AI developed for the accurate identification, characterization, classification and prediction of objects in heterogeneous samples. AI will provide quantitative and qualitative analysis results close to human in the urology field with lab-on-a-chip.

서 론

기계지능(machine intelligence)이라고도 불리는 인공지능(artificial intelligence, AI)은 1955년 AI 개념이 처음 도입된 지난 몇 년간 과학, 산업, 국방, 의학의 판도를 획기적으로 바꿔 놓았다.1 상당히 향상된 컴퓨팅 파워와 클라우드 스토리지의 지원을 받아, AI 분야는 컴퓨터 공학 분야의 이론적인 학문에서 과학, 산업, 의학의 여러 분야에 걸친 실제 응용 분야로 전환되었다.2,3 딥러닝 (deep learning)은 과학, 데이터 중심 분석 및 정보 전략은 이미 연구자들이 가용한 자료를 기반으로 신속한 예측을 할 수 있도록 지원했다.4-6 일반적으로 비용이 많이 들고 시간이 많이 걸리는 약물 발견에서 딥러닝은 자동화 기술이 제공하는 대규모 화학 데이터를 채굴함으로써 새로운 분자 설계, 합성 예측 및 약물-표적 상호작용 예측에서 상당한 수준의 성공을 달성했다.7,8 천문학에서 딥러닝은 암흑물질을 식별하기 위한 강력한 중력렌즈의 이미지를 분석하고 발견되지 않은 공간에 대한 내용물을 매핑하기 위한 우주의 대규모 구조를 연구하는 방법으로 빠르게 인기를 끌고 있다.9 음성인식 분야에서 애플의 시리, 구글의 어시스턴트, 아마존의 알렉사 등 세심하게 통제된 환경 밖에서 유용할 만큼 정확한 상용 제품에 딥러닝이 성공적으로 채택되었다.10 X선 영상, 자기공명영상(magnetic resonance imaging, MRI), 컴퓨터 단층촬영(computed tomography, CT), 내시경, 조직병리학적 영상촬영 등 의료영상 분야에서 엄청난 양의 의료영상 데이터 가용성에 의한 딥러닝은 피부암, 당뇨망막 등 다양한 질병과 질환의 발견과 진단에 있어 획기적 발전을 이루었다.2,3,11 이러한 애플리케이션뿐만 아니라 독극물학, 법의학, 보안, 광고 및 금융 분야에서 발견되는 많은 다른 AI 지원 애플리케이션에서도 AI가 적용된다.4-6,12 그 결과 인간 전문가의 성과에 필적하거나 심지어 더 우수하다는 것이 입증되었다.
인공지능 발전에 필수적으로 중요한 것은 머신러닝(machine learning)에 필요한 데이터다. 간단히 말해서, 데이터 수집을 통해 반복 패턴을 식별할 수 있다.4,13 동향을 인식하고 미래 결과를 예측하는 기계 학습 알고리즘을 사용하여 예측 모델을 구성한다.3,14,15 일반적으로 AI의 개발은 (1) 데이터 수집, (2) 데이터 준비, (3) 모델 선택, (4) 모델 교육, (5) 모델 평가, (6) 튜닝 매개변수, (7) 모델 전개, (8) 모델 전개와 같은 반복 절차로 구성된다. AI 개발의 가장 첫 번째 프로세스인 데이터 수집과 데이터 준비는 그 중요성에도 불구하고 전형적으로 가장 힘든 작업이며 기능적인 AI 알고리즘을 구축하는 데 제약 요인이 되는 경우가 많다.4,16 개발 AI의 능력은 훈련 데이터의 질과 양에 따라 크게 좌우된다는 얘기다.9,17 예를 들어, 교육 데이터의 편향은 AI의 의사결정에 영향을 미쳐서 예측이 부정확해지고 일관성이 없게 된다.3,6,18 모델 평가, 모수 튜닝 및 예측 등의 최종 공정을 수행하기 위해 인공지능 학습 데이터 세트뿐만 아니라 데이터 세트의 검증 및 테스트도 마찬가지로 중요하다.
Lab-on-a-chip 기술, 특히 마이크로유체 기술은 위에서 언급한 병목 현상을 극복할 수 있는 매우 강력한 플랫폼이다. 대규모의 비용 효율적이고 높은 처리량, 자동화 및 멀티플렉스 방식으로 AI를 구현한다.19-25 그 덕택에 칩에 여러 실험실 기술을 통합할 수 있는 능력으로 나노미터에서 마이크로미터 크기의 물체(예: 분자, 입자, 바이러스, 세포, 엑소솜, 병원체)에 대한 빅데이터를 효율적으로 획득할 수 있다. 이 플랫폼에서 높은 처리량 이미징은 교육 데이터의 “품질 및 수량” 요구사항을 충족시켜 딥러닝의 모든 힘을 최대한 활용할 수 있는 대규모 대상 성질(예: 크기, 모양, 구조, 구성, 상호작용)의 높은 콘텐츠 정보(예: 상호 작용)를 확인할 수 있기 때문이다.11,26-38 이미지로 처리할 수 있는 수치와는 다르게 자주 변화하고 광범위한 범위를 가지는 산란, 임피던스 및 형광 측정에서는 데이터를 수집하기가 어렵다. 비슷한 예로, 그동안 AI 증강 진단에 X선 영상, CT, MRI의 고함량 영상 데이터가 광범위하게 활용된 반면 혈압, 혈당, 심전도 측정 데이터는 AI 훈련에 효과적인 데이터를 확보하지 못한 것이 있다.2,3,11 높은 처리량 이미지는 표현형-유전자형 관계를 알아보기 위한 DNA/ RNA 시퀀싱과 분류에 이용될 수 있다.1,33,36 표현형-유전자형의 데이터는 기존의 전통적인 방법으로 분석하기에는 너무 복잡하지만 AI를 이용하여 분석 할 수 있다. 추가로 혼합, 이질, 미지의 샘플에서 대상의 정확한 식별, 특성화, 분류 및 예측을 위해 개발된 AI를 탑재한 랩온어칩 기술도 활용할 수 있다.1,18,23,26,33,39-44 이번 종설에서 AI와 랩온어칩 기술의 뛰어난 시너지를 바탕으로 랩온어칩 기술 또는 줄여서 ‘AI on a chip’으로 AI의 기본 요소, 최근 발전, 향후 과제, 새로운 기회 등에 대해 개략적으로 설명한다.

칩에서의 고-처리량 이미징

고-처리량 이미징은 마이크로유체와 AI의 시너지를 최대한 활용하기 위해 AI-on-a-chip 플랫폼에 없어서는 안 될 도구다. 특히, 높은 처리량 영상 기술은 흐름 기반 영상과 광역 영상의 두 그룹으로 분류할 수 있다. 유량 기반 영상촬영에서는 광학 초점 기술(optical focusing technology)20-22을 통해 나노미터 크기의 물체를 하나씩 흘려보내 고-처리량으로 흐르는 물체의 흐림 없는 이미지를 획득해 각 물체의 고함량 정보를 대량으로 생성할 수 있도록 하는 미세유체 기술이 사용된다. 광영역 이미징에서는 렌즈를 사용하지 않고 기록된 회절 패턴에서 객체 이미지를 재구성하여 넓은 시야(field of view, FOV) 내에 있는 수많은 객체의 온칩 현미경 이미징에 흔히 사용된다. 이러한 높은 처리량 이미징 기술로 획득한 대규모 데이터를 기반으로 혼합, 이종 또는 객체 식별, 특성화, 분류 및 예측을 가능하게 한다. 그러나 높은 처리량 이미징에서 처리량, 민감도, FOV 및 공간 해상도 사이에는 근본적인 트레이드오프가 있다. 예를 들어 흐름 기반 이미징에서는 처리량을 높이기 위해 객체의 흐름 속도가 증가하므로 흐리지 않는 이미지를 획득하려면 이미지 센서의 통합 시간을 단축해야 한다. 이러한 균형을 극복하기 위해 특히 영상흐름세포측정 분야에서 다양한 기술이 개발되었다. 여기에서 흐름 기반 이미징은 카메라 기반 이미징과 단일 픽셀 이미징으로 더 분류할 수 있다.30 카메라 기반 이미징은 일반적으로 전하결합장치(charge-coupled-device)와 상보형금속산화반도체(complementary metal-oxide-semiconductor) 이미지센서와 같은 검출기를 사용한다. 카메라 기반 이미징의 대표적인 예로는 시간 지연 통합(time-delay integration) 이미징, 광기계 이미징 및 단층 영상촬영 등이 있다.11,29,30,34-36 반면, 단일 픽셀 이미징은 각 물체의 공간 정보를 단일 픽셀로 매핑하고 광전자 증폭관(photomultiplier tube), 어밸런치 포토다이오드(avalanche photodiode)와 같은 민감한 단일 픽셀 광 검출기로 감지하는 것을 기본으로 한다. 이 기술의 대표적인 예로는 광학 시간 연장(optical time-stretch, OTS) 이미징, 주파수 분할 다중화(frequency-division multiplexed) 이미징, 공간-시간 변환(spatial-temporal transformation) 이미징 등이 있다.26-28,37,38,45 한편, 두 번째 높은 처리량 이미징 그룹에서 주목할 만한 기술의 예로는 접촉 모드 섀도(contact-mode shadow) 이미징과 회절 기반 무렌즈(diffraction-based lensless) 이미징이 있다.46-52

인공지능의 구축

인공지능의 엄청난 성공은 인공신경망(artificial neural network, ANN), 심층신경망(deep neural network, DNN) 등의 기술을 이용해 정보와 패턴을 가리는 기계학습과 딥러닝에서 비롯되었다. 인공지능은 데이터와 환경로부터의 경험을 학습하기 위해 프로그램 가능한 개입을 통해 인간의 지식을 확장시키고 있다.14,16 이 학습 과정은 기본 매핑 함수에 근접하기 위해 일반 또는 도메인별 가설을 계산함으로써 달성된다. 학습, 감지, 선별, 사고, 이해, 인식, 추론, 모니터링, 통신, 설계, 기획 등의 구현을 통해 AI는 매우 다양한 분야에서 전례 없는 여러 난제를 극복할 수 있었다.5,13-16,53 최근 AI 는 학습 능력과 응용 분야에서 모두 급속한 성장을 보이며, 현대 사회에서 대체 불가능한 도구가 되었다.
기계 학습은 유사한 지식으로 습득할 수 있는 지능적인 기계를 만드는 데 있어 중요한 초석이 된다. 머신러닝 알고리즘은 원시 입력 데이터를 취하여 지정된 알고리즘에 따라 독립적으로 문제를 해결할 수 있는 능력이 있다.17 다양한 유형의 머신러닝 알고리즘은 문제 해결을 위한 다양한 접근법을 지원한다. 기계 학습의 세 가지 일반적인 접근법은 비지도 학습(unsupervised learning), 지도 학습(supervised learning), 강화 학습(reinforcement learning)이다. 이러한 각 접근 방식은 다양한 이점과 한계를 보여주므로 사용 가능한 데이터와 실험 목표에 따라 이상적인 접근 방식이 달라진다. 머신러닝은 일반적으로 분류, 차원 감소, 패턴 인식, 최적화 및 기타 많은 분야에서 구현될 수 있다. 그러나 머신러닝은 대규모 데이터 세트의 요구 사항, 데이터 편향, 구현 어려움과 같은 몇 가지 한계로 인해 완벽한 도구는 아니다. 딥러닝은 머신러닝의 중추 구성 요소 중 하나이다.7 AI 연구의 최근 변화는 컴퓨터 과학에서 주로 이론적인 연구부터 많은 분야의 실제 적용까지 딥러닝의 출현에 기인한다. 딥러닝의 고전적 네트워크는 컨볼루션 신경망(convolutional neural network, CNN)과 반복 신경망(recurrent neural network)으로 두 가지로 나뉜다.15 이것은 비선형 매핑을 통한다. 기존의 머신러닝은 오직 원본 형태의 데이터만 처리할 수 있었던 반면, 딥러닝은 데이터의 특징을 자동으로 추출하고 입력 데이터를 기반으로 의사 결정을 내린다. 그러나 딥러닝의 본질적인 문제 중 하나는 대량의 훈련 데이터가 필요하다는 것이다. 많은 응용 분야에서 최적의 데이터 양은 분류, 예측 및 검출 작업에 필요한 정확도에 따라 달라진다.54 바람직한 데이터 크기를 얻을 수 없는 경우, 문제를 우회하기 위한 몇 가지 데이터 확대 기술이 있다. 예를 들어, 입력 훈련 데이터와 동일한 통계를 포함하는 새로운 데이터를 생성할 수 있는 생성적 적대 신경망(generative adversarial network, GAN)을 사용하여 데이터 크기를 늘릴 수 있다. GAN은 생성 네트워크를 사용하여 시뮬레이션된 데이터를 생성하고 훈련 데이터를 포함하는 별도의 차별적 네트워크에 대해 데이터를 테스트할 수 있다. 이 테스트는 시뮬레이션된 데이터와 실제 데이터 사이의 유사성을 확인한 다음 생성 네트워크에 피드백을 적용한다. 이 프로세스를 반복하면 GAN이 새 데이터를 생성하고 사용 가능한 교육 데이터의 양을 늘릴 수 있다. 더욱이 손실 함수에 가중치를 할당하면 클래스 간 데이터 크기의 불균형이 감소한다. 최근에는 사전 훈련된 모델이 다른 관련 작업에 재사용되는 전송 학습이 이미지 분류에 적용되어 필요한 훈련 데이터 크기를 줄이고 훈련 과정을 가속화하고 있다. 이 섹션에서는 다양한 생물의학 및 산업 분야에 대해 요약하였다.

1. 인공지능 기반 분류

분류 패러다임은 주로 이진 및 다중 클래스 분류 작업으로 분류된다. 표본은 일반적으로 지도 학습(supervised learning) 설정에서 조사되며, 이를 위해서는 AI 모델이 레이블링된 훈련 샘플을 사용하여 학습한다. 대표적인 분류자에는 k-근접 이웃(k-nearest neighbor, k-NN), 서포트 벡터 머신(support vector machine, SVM) 및 의사 결정 트리가 포함된다. k-NN은 효율적이고 단순하게 SVM과 유사한 함수를 자주 달성할 수 있다. 유사한 측정의 계산 비용이 상대적으로 높으며 전체 성능은 개별의 영향을 받아서 고성능과 병렬 컴퓨팅과 함께 흔히 사용된다.8 k-NN 기반 분류는 일반적으로 비지도 학습과 강화 학습과 관련이 있다.8,53 k-NN 기반 분류는 microfidic-chip-based 영상 흐름 세포계에서 효모 세포를 분류하기 위해 사용되었다.26 한편, SVM은 지도 학습 제품군에서 강력한 도구이며, 화학 및 생물의학 애플리케이션의 데이터 분석과 패턴 인식에도 널리 사용되어 왔다.2,14,16 SVM에는 두 가지 주요 테마가 있다; 하나는 AdaBoost, k-NN, 은닉 마르코브 모델(hidden Markov model)과 같은 다른 모델과 연관된 SVM이고, 다른 하나는 선형 커널, 다항 커널, 시그모이드 커널과 같은 커널 함수를 사용한다.2,13 SVM은 최근 확률적 최적화와 함께 사용되어 왔다.55 더욱이 SVM은 계층적 환경에서 임신 가능성과 관련된 시나리오를 식별할 수 있는 배아 품질과 환자 나이를 통합하기 위해 DNN과 함께 의사 결정 트리를 만드는 데 사용되어 왔다. 최근 랩온어칩에서 ANN 기반 이미지 센서를 이용하기 시작하였다.7,8 이것은 지속적으로 조정 가능한 광전자후원 매트릭스를 사용하여 해당 분류기와 자동 인코더의 지도 및 비지도 학습을 모두 사용하여 입증되었다. AI 기반 분류는 높은 정확성, 속도 및 유연성 덕분에 랩온어칩 기반 기술의 새로운 시대를 여는 데 도움을 주었다.

2. 인공지능 기반 예측

예측 체계는 기계 학습, 데이터 마이닝, 정보 검색 및 예측 분석에서 다루는 다양한 기술로 구성되어 있으며, 과거 데이터를 분석하여 알려지지 않은 물체나 사건에 대한 예측 또는 예측을 한다.2,12,55 네 가지 주요 유형의 예측 방법이 널리 사용되며 점점 더 많은 랩온어칩과 통합되고 있다. 첫 번째의 고전적인 유형은 선형 회귀이다. 이 유형은 가장 적은 양의 잔차를 포함하고 종종 제곱 손실로 평가된다. 선형 회귀는 클래스 예측에서 채널 제작에 이르는 다양한 유형의 미세 유체 연구에 사용되어 왔다. 두 번째 유형은 로지스틱 회귀 분석이다.5 이것은 목표 함수를 최적화하고 최대 우도 추정을 구현하여 비선형 관계를 밝혀낸다. 이것은 또한 일련의 DNN을 위한 기초적인 방법이며 분류 및 예측 연구에 사용된다. 세 번째 유형은 협업 필터링(collaborative filtering)으로, 서로 다른 항목이나 객체 간에 관심사가 유사한 사용자의 결정을 바탕으로 자동 예측이 가능하게 해주는 방법이다. 협업 필터링은 비지도 학습에서 객체를 클러스터로 그룹화하는 것과 유사하다. 협업 필터링은 엔티티 검출, 정밀 의학, 추천 엔진에서 잘 알려진 콜드 스타트 문제(새로운 유저들에 대한 충분한 정보가 수집된 상태가 아니라서 해당 유저들에게 적절한 제품을 추천해주지 못하는 문제)를 해결하기 위해 밴디트 접근법과 같은 강화 학습과 연결된다.13,56 협업 필터링 접근법은 또한 단백질을 결정하기 위해 게놈 스케일 다중 표적 가상 스크리닝에서 사용되었다. 약물 발견 과정 동안 이용 가능한 상호 작용 데이터가 거의 또는 전혀 없는 새로운 화학 물질에 대한 표적을 대상으로 한다.56 네 번째 유형은 예측에 사용될 수 있는 새로운 데이터를 생성할 수 있는 GAN이다. 예를 들어, GAN은 정확한 세포 분류를 위해 칩에서 획득한 밝은 필드 이미지에서 셀의 위상 이미지를 생성하는 데 사용되었다. 또한 GAN은 칩의 저해상도 이미지에서 고해상도 이미지를 예측할 수 있는 능력을 입증했다. AI 기술을 접목한 예측 기술은 랩온어칩 분류 실험 기술과 같은 이유로 널리 사용되어지고 있다.

3. AI기반 탐지

탐지 기술은 주로 물체 감지, 공동체 감지 및 이상치 탐지로 구성되며, 모두 비지도 학습 및 강화 학습과 자연스럽게 이어진다.57 객체 감지, 객체 위치 파악 및 이미지 분할은 센서 네트워크, 컴퓨터 비전 및 이미지 처리에서 공통적인 역할이다.5 ANN 기반, DNN 기반 객체 탐지 전략에는 고속으로 1단계 객체 감지(예: You Only Look Once, YOLO) 및 2단계의 추가적 강화 인식(예: regions with CNN, R-CNN)이 포함된다. 이러한 감지 방법은 미세 유체 채널을 통과하는 물체를 추적하기 위한 미세 유체 영상 흐름 세포 측정 시스템에 사용된다.40 YOLO는 한 번의 스캔으로 물체를 식별하고 찾기 위한 실시간 처리를 위한 객체 감지 시스템이다. R-CNN은 선택적 검색을 통해 샘플 영역을 검색하고 CNN에 대한 입력 피드로 정규화하며 CNN을 사용하여 여러 SVM 기반 분류기를 통해 기능을 생성하는 회귀 기반 방법이다. 최근 몇 년 동안, 비지도 학습과 강화 학습이 이것을 발전시켰다.2,17,58,59 AI-powered 분석은 ClassNet이라고 불리는 R-CNN을 활용하여 세포의 특성을 찾을 수 있게 전송광과 형광현미경에서 사용되어 왔다. 이것은 특별한 라벨링 없이 살아있는 세포를 추적하고 면역세포의 형태를 확인할 수 있게 해주었다.16 최근에 이전의 항생제로 치료할 수 없는 박테리아에 효과적인 분자를 발견하기 위해 인공지능을 이용할 수 할 수 있다는 보고가 있었다.15 추가적으로, AI 기반 탐지 시스템은 랩온어칩에서 흘러가는 입자들을 추적할 수 있게 하였다. AI 기반 탐지 전략은 함께 랩온어칩 기술과 함께 대기 품질 제어와 같은 다양한 분야에서 신속한 모니터26

AI-on-a-chip 응용 프로그램

지난 몇 년 동안 다양한 AI-on-a-chip 응용 프로그램이 보고되었는데, 대부분은 약물 처리된 세포, 혈소판 응집체, 백혈구, 암세포, 지질 풍부 미세조류 세포, 세포 주기별 세포 등 세포의 정확한 분류에 관한 것이다.1,18,33,39,40,44,60-63 이런 응용 프로그램들은 밝은 필드, 다크 필드, 위상, 형광 이미지를 생성하는 영상 유세포 분석(flow cytometry)에서 입증되었다. 이러한 응용 프로그램 외에도, Raman 이미징 유세포 분석, organ-on-a-chip 필드 및 미세 유체 칩의 세포 측정에도 여러 가지 AI-on-a-chip 응용 프로그램이 있다.23,42 AI 관련 기능이 없는 기존 방법보다 높은 분류 정확도를 보여주며 크게 두 가지 범주로 구분할 수 있다. 첫 번째 범주는 고전적인 이미지 분석과 기계 학습의 조합에 기초한다. 고전적인 이미지 분석은 높은 처리량 이미징으로 획득한 수많은 셀 이미지에서 형태학적 특징을 추출하는 반면, 기계 학습은 향상된 분류 정확도로 추출된 형태학적 특징을 기반으로 세포를 분류하는 데 사용된다. 두 번째 카테고리는 딥러닝 기반 이미지 분석을 기반으로 하기 때문에 더 높은 분류 정확도가 가능하다. 이 절에서는 AI가 생산한 결과가 이전의 비AI 기술보다 우수한 몇 가지 주목할 만한 애플리케이션에 대해 설명한다.

1. 세포 주기 분석

세포 주기의 각 단계(예: 유사 분열 단계)에서 세포의 비율을 특징짓는 것은 세포 생물학에서 중요하다. 이 특성은 여러 염색을 사용하는 기존의 유세포 측정법으로 수행할 수 있지만, 이러한 염색은 종종 라이브 셀 분석(예: 히스톤 변형에 대한 항체)에 적용되지 못하는 것으로 잘 알려져 있다. 비록 분비형 라이브 셀 리포터가 이용 가능할지라도, 이 물질들은 세포에 교란적인 영향을 미칠 수 있다. 최근 연구에 따르면 높은 처리량의 영상 흐름 세포 측정과 기계 학습을 결합하는 것이 위의 문제에 대한 유망한 해결책을 제공한다는 것이다. 2016년 Blasi 등39은 지도 기계학습법을 통하여 유세포 분석 영상에서 밝은 필드와 어두운 필드의 이미지를 추출해서 유사 분열 시 세포의 형태학적 특징을 찾아내어 별도의 라벨링 없이 예측할 수 있음을 입증하였다. 밝은 영역 및 어두운 영역 영상을 획득하기 위해 시간 지연 통합 기반 영상 유세포분석기를 사용했다. 이들은 이 방법을 통하여 고정된 또는 살아있는 포유류 세포의 세포주기 분석을 수행하고 세포주기 유사분열상 차단제의 영향을 정확하게 평가할 수 있음을 보고하였다. 2017년 Eulenberg 등40은 비선형 차원 감소와 결합된 deep CNN을 이용하여 Jurkat 세포의 세포 주기를 재구성하는데 성공하였다. 이들은 deep CNN을 이용해 이미지 특징에 기반한 최근의 접근 방식으로 세포 주기 단계를 분류하는 데 있어 오류율이 6배 감소시킬 수 있었다. 게다가 deep CNN는 비지도적 방법으로 죽은 세포들을 분리할 수 있었다. 이러한 결과는 비지도 기계 학습 및 deep CNN 지원 이미지 분석이 형광염색 없는 무라벨 영상 유세포분석이 가능하다는 것을 보여준다.

2. 약물-감수성 테스트

약물 감수성은 여러 종류의 암에 대한 치료 전략을 선택하기 위한 중요한 기준이다. 최근 연구에 따르면 유전체 분석과 함께 고함량 스크리닝과 같은 기능적 분석은 약물 감수성을 예측하는 데 유용하지만, 그 방법을 임상적 적용하기에는 노동집약적이고 비용이 많이 들며 시간이 많이 소요되기 때문에 적합하지 않다. 이 문제를 극복하기 위한 몇 가지 접근법이 지난 몇 년 동안 제안되고 입증되었다. 2017년, Guo 등18은 머신러닝의 도움을 받아 고처리량 밝은 필드 영상을 사용하여 라벨링 없이 세포 약물 반응을 평가하는 방법을 제시하였다. 그들은 고처리량 OTS 현미경(초당 10,000개 세포)을 이용하여 약물 처리된 세포와 그렇지 않은 세포를 비교하였고, 머신러닝을 적용하여 인간이 찾아내기엔 너무 미묘한 형태학적 변화까지 찾아냈다. 그 결과, 약물 처리 세포와 미처리 세포는 형광 표지 없이 92%의 높은 정확도로 구별되었다. 또 그들은 용량에 따라, 약물에 따라 유발된 형태학적 변화의 차이를 정확하게 분류할 수 있는 것을 입증했다. 뿐만 아니라, Kobayashi 등8은 백혈병 약물 감수성 테스트에도 적용했다. 개선된 방법은 초-고처리량(초당 백만개 세포 이상)의, 무라벨의, 전혈 유세포 이미지를 심층 컨볼루션 오토인코더를 통해 이용하였다. 그것은 약물로 처리되고, 라벨이 부착되지 않은 전혈 샘플을 영상 유세포계로 500 μ L만큼만 흘려보냄으로써 24시간 내에 모든 백혈구의 약물 민감도를 영상 기반 식별이 가능하게 했다. 이 방법으로 급성 림프구성 백혈병 환자의 백혈구 약물 감수성을 정확하게 평가하여 보고하였다. 이런 인공지능 관련 방법들은 정밀 의학의 가격을 낮출 수 있는 가능성을 보여주었다.

3. 혈소판 골재의 분류

혈소판은 무핵세포로, 유착, 활성화, 응집 등을 통해 출혈을 멈추는 것이다. 혈소판은 생리적 지혈에 참여할 뿐만 아니라 병적인 혈전증에도 관여한다. 분자 메커니즘, 혈소판 활성, 질병이 서로 어떤 영향을 미치는지 명확히 하는 것은 혈소판 생물학에 대한 새로운 통찰력을 제공하고 의학 연구의 획기적인 발전을 이끌 것으로 기대된다. 그러나 기존의 혈소판 연구 방법은 혈소판 검출과 분석이 모두 어려워 혈소판 단면 정보를 포괄적으로 제공하지 못하였다. 이러한 문제를 피하기 위해 최근 여러 연구가 보고되었다. 혈소판 응집은 혈소판 상에 발현하는 특정 수용체와 결합해 활성하는 다양한 작용체에 의해 혈소판 표면에 나타나는 당단백질의 구조적 및 기능적 변화로 발생하는데, 지혈, 혈전증, 염증, 암 등 원인에 따라 다양한 작용체가 있을 수 있다. 혈소판응집체에는 혈소판 단독 외에 백혈구까지 포함된 경우까지 다양하나, 그 형태가 비슷해서 판별이 어렵다고 알려져 있다. 2017년 Jiang 등63은 사람 혈액에서 라벨이 없이 단세포 영상 기반 체외 온칩 분석을 통해 혈소판 응집체를 확인했다. 이 분석은 OTS 현미경과 머신러닝의 조합을 기반으로 구축되어 단기간에 혈소판 응집체의 형태 기반 식별 및 열거가 가능하였다. 기계 학습으로 세포 분류를 수행함으로써 Jiang 등은 특이성과 민감도 모두 96.6%로 백혈구로부터 혈소판을 구별하였다. 2018년, Nitta 등1은 8층 깊이의 심층 CNN을 사용한 지능형 이미지 활성화 세포 정렬(intelligent image-activatedcell sorting, iIACS)으로 사람 혈액에서 혈소판 응집의 실시간 이미지 기반 정렬을 시연했다. iIACS는 건강한 기증자의 혈액 샘플에서 세포의 4.28%를 혈소판으로 식별하였으며, 그 중 51.5%는 현미경 조사에 의해 혈소판 응집체였다는 것이 확인되었다.36 2020년 Zhou 등64은 OTS 현미경으로 획득한 수많은 혈액 세포 영상에 의해 훈련된 CNN 모델을 기반으로 작용제 유형별로 혈소판 집계를 분류하는 지능형 방법을 제시했다. 특히 지능형 혈소판 응집체 분류기(intelligent platelet aggregate classifier)로 알려진 이 방법은 다른 유형의 작용제에 의해 활성화되는 혈소판 골재의 미묘하지만 주목할 만한 형태학적 특성을 식별하고 분화할 수 있게 했다. 이 방법들은 분자, 혈소판, 질병 사이의 관계를 설명함으로써 이전에 연구되지 않은 혈소판 생물학 영역을 밝혀냈다.1,33,63 그들은 AI온칩을 이용하여 혈전 장애, 혈소판 기반 액체 생검법, 항혈전 치료 모니터링 등과 같은 임상적 진단, 약리, 치료에 있어 새로운 분야를 개척할 것으로 기대한다.

4. 일반혈액검사

일반혈액검사(complete blood cell count, CBC)는 적혈구, 백혈구, 혈소판 등 혈액 내 순환하는 세포를 열거하여 환자의 건강 상태를 전반적으로 평가하고 빈혈, 감염, 염증, 백혈병 등 다양한 질환을 잠재적으로 발견하기 위한 검사이다.49 유세포분석은 CBC 테스트에 일상적으로 사용되지만, 높은 비용과 장비의 부피가 커서 현장진단검사(point-of-care; 현장에서 검사를 행하여 단 시간 내에 결과를 알 수 있어 신속한 대응을 가능하게 하는 검사)으로는 적합하지 않다. 최근 온칩 렌즈리스 영상촬영 시스템은 현장에서 저비용 CBC 테스트를 수행할 수 있는 능력을 보여주었다. 렌즈가 없는 영상 시스템에서 이미지 센서는 픽셀 크기(일반적으로 약 10 μ m 이하)로 확대 없이 셀의 이미지를 캡처하기 위해 미세 유체 채널 바로 아래에 통합되어 이미지의 공간 해상도와 각 셀 유형의 검출 정확도에 제한이 있었다. 2008년에 Huang 등65은 CNN 기반 초고해상도 영상 처리를 갖춘 렌즈 없는 영상 시스템을 보고했다. CNN을 훈련시키기 위해 그들은 기존의 현미경(Olympus IX71)을 사용하여 적혈구와 백혈구의 저해상도 영상과 고해상도 영상 훈련 세트를 얻었다. 검사 검체를 분당 5 μ L의 유량으로 미세 유체 채널로 흘려보냈고, 세포의 고해상도 이미지를 위해 캡쳐된 이미지를 사전 훈련된 CNN에 의해 처리하였다. 그 결과 픽셀 크기 한계를 뛰어넘는 공간 해상도가 높은 혈액세포 영상을 얻었다. 이러한 결과는 AI가 훈련한 렌즈 없는 미세 유체 영상 시스템이 현장진단검사에서 정확한 CBC 테스트를 수행할 수 있는 큰 잠재력을 가지고 있음을 알 수 있다.

비뇨의학 관련 인공지능

비뇨기종양에서 인공지능과의 접목이 이뤄지고 있다(Table 1). AI는 MRI 영상을 분석하여 전립선의 경계나 조직의 특성, 전립선암을 예측하기도 한다.66-69 Strom 등67은 전립선 조직검사 조직에서 AI를 통한 전립선암을 양성조직과 구별할 수 있었고 글리슨 점수가 병리 전문가와 상당한 일치도를 보여줌을 확인했다. Bulten 등70도 AI를 통하여 양성과 악성의 감별이 96%-97%의 정확도를 보여줌을 보고하였다. MRI나 초음파에서 AI를 이용하여 전립선암을 구별하는 연구 역시 진행되었다.68,69 방광암에서도 침습적인 조직검사를 하지 않고도 이미지를 방광경이나 MRI의 영상을 AI 분석하여 방광암을 찾거나 병기나 악성도를 평가하였다.71-75,77,78 이미지를 통하여 방광암과 정상소견을 99% 정도의 정확도로 구별할 수 있었다는 보고도 있었다.71 하지만 아직 영상이나 실시간 판독에 대한 연구는 부족하다. 신장암에서도 상당히 높은 정확도로 투명 신세포암과 유두상 신세포암을 찾아냈다.78-81 또 혈관근육지방종과 신장암을 구별하는 연구에서 94% 정도의 정확도를 보고한 바 있다.80 이와 같은 인공지능과 임상 의학의 접목은 이미 시작되었고, 점차 진단영역뿐만 아니라 치료, 예후 예측까지 이어질 것이며, 환자 맞춤형 개인 맞춤 의학까지 확장될 것으로 기대한다. 본 연구실에서는 방광암 모사 칩(bladder cancer-on-a-chip)을 미세유체와 3차원 바이오프린팅을 이용하여 완성한 바 있고, 방광암 모사 칩을 통하여 세포생존분석, 면역반응분석 등을 시행할 수 있었고 이 결과가 동물실험 결과와 유사함을 보고하였다(Fig. 1).82 이런 방광암 모사 칩에서도 추후 인공지능과의 접목을 통해 분석방법을 개발하고자 하며 이는 고-처리량 이미징 방법을 통해 대량의 결과 값을 짧은 시간 내에 도출해낼 수 있을 것으로 생각한다. 앞에서 기술한 AI-on-a-chip 기술인 세포주기분석, 세포종류판별, 약물-감수성테스트 등이 방광암 모사 칩에 적용될 수 있을 것이다. 인공지능을 적용한 비뇨의학 관련 장기칩 연구보고는 아직 없지만 AI의 영역이 점차 확장되고 있어 자연스럽게 이어질 것으로 기대한다.
Fig. 1.
Bladder cancer-on-a-chip.
kjuo-20-3-163f1.jpg
Table 1.
Artificial intelligence research about oncologic urology
Study Objective Study design Model Accuracy
A. Prostate cancer
  Strom et al.67 Prostate cancer detection and Gleason grade in prostate bio- psy Training set: 976 patients (6,682 slides), test set: 246 patients (1,631 slides) Artificial neural network (ANN) Sensitivity: 99% Specificity: 94.9%
  Bulten et al.70 Prostate cancer detection and Gleason grade in prostate bio- psy 1,243 Patients (5,759 biopsy results) Deep learning (DL) system Benign vs. malignancy: 97.4% Grade group ≥2: 79%-83% Grade group ≥3: 76%-82%
  Viswanath et al.69 Detection of prostate cancer in T2W MRI 85 MRI dataset Quadratic Discriminant Analy- sis, Naïve Bayes Decision Trees NA
  Wildeboer et al.68 Prostate cancer localization in transrectal ultrasound 50 Patients (B-mode, shear- wave elastography, dynamic contrast-enhanced ultrasound) Machine learning NA
B. Bladder cancer
  Ikeda et al.73 Bladder cancer detection in cy- stoscopy 2,102 Images (1,671 normal, 431 malignancy)8:2 Test: training set Convolutional neural network (CNN) Sensitivity: 89.7% Specificity: 94%
  Lorencin et al.74 Bladder cancer detection in cy- stoscopy 1,997 Bladder cancer 986 Normal Multilayer perceptron, Lapla- cian edge detector NA
  Hashemi et al.75 Image classification in cysto- scopy Cystoscopy image 540 Multilayer neural networks, Genetic algorithm Reduction of error 7%
  Eminaga et al.71 Image classification in cysto- scopy 479 Patients 18,681 Images (60% training set, 10% validation set, 30% test set) DL-CNN Xception model ResNet50 InceptionV3 VGG-19 VGG-16 F1 scores Xception: 99.52% ResNet: 99.48%
  Shkolyar et al.76 Classification between benign and malignancy 95 Patients (training set)59 Patients (validation & test set) VGG-16 CNN Sensitivity: 91% Specificity: 99%
  Teoh et al.77 Bladder cancer detection 100 Patients, 4,019 cystoscopy images DL 86%
C. Kidney cancer
  Kocak et al.79 Kidney cancer subclassification in CT 68 Patients (internal validation)26 Patients (external validation)275 CT images ANN, Support vector machine (SVM) ANN: 84.60% SVM: 69%
  Feng et al.80 Classification between angio- myolipoma and kidney cancer in CT 58 Patients Machine learning, SVM, Syn- thetic minority oversampling technique 93.9%
  Coy et al.81 Classification between clear cell renal cell carcinoma and oncocytoma in CT 4,000 Iterations (90% test set, 10% validation set) 179 Patients DL-based Google TensorFlow software 74.4%
  Yan et al.78 Classification between clear cell renal cell carcinoma, pa- pillary renal cell carcinoma and angiomyolipoma in CT 18 Patients Discriminant analysis, CNN 90.7%-100%

T2W MRI: T2-weighted magnetic resonance imaging, CT: computed tomography, NA: not available.

양성 비뇨기계 질환에서도 인공지능 연구는 이뤄지고 있다(Table 2). 하부 요로 증상이 있는 환자의 임상적 데이터를 인공지능 해석을 통해서 예후를 예측하였다.83,84 결석에 있어서도 내시경적치료나 체외충격파쇄석술의 결과를 예측하는 보고도 발표되었다.85,86 소아 비뇨기 영역에서도 인공지능을 이용하여 수신증의 진단적 정확도를 향상시키고 초기 치료 결정에 도움이 될 수 있다는 발표도 있었다.87 이와 같이 아직 시험적이지만 다양한 인공지능 분석 관련 연구가 진행되고 있다. 멀지 않은 가까운 미래에는 이와 같은 인공지능 분석의 영역은 대부분의 연구에서 사용되고 있는 일반적인 통계프로그램처럼 하나의 어플리케이션이 되어 여러 임상적 분석에 상당히 자유롭게 이용될 것으로 예측한다.
Table 2.
Artificial intelligence research about benign urology
Study Objective Study design Model Accuracy
Sonke et al.83 Diagnosis of men with lower urinary tract symptoms 1,903 Patients Artificial neural network Sensitivity: 71% Specificity: 69%
Jang et al.84 Analyze the urine flow characteristics in various urethra models using si- mulations 7 Patients Retrograde and anterograde urethro- graphy Reynolds averaged Navier-Stokes model NA
Kadlec et al.85 Outcome prediction after various forms of endourologic intervention 382 Renal units Nonlinear logistic regression model 69.6%
Seckiner et al.86 To predict stone-free status and to help in planning treatment with Extra- corporeal Shock Wave Lithotripsy 203 Patients Artificial neural network 88.7%
Blum et al.87 For the early detection of clinically significant hydronephrosis caused by ureteropelvic junction obstruction 55 Patients Linear support vector machine classi- fier 93%

NA: not available.

남아있는 과제

위에서 설명한 칩에서 AI의 장점에도 불구하고, 데이터 획득과 AI 기반 분석 모두에서 여전히 몇 가지 과제가 있다. 특히 AI-on-a-chip 기술은 교육 데이터에 대한 양과 질적 향상에 대한 필요성이 있으며, 이는 랩온어칩 플랫폼에서 데이터 획득의 안정성, 일관성 및 견고성과 연관된다. 주로 광학, 미세 유체 및 전기 기구로 구성된 처리량이 높은 영상 기술은 광학 구성 요소의 정밀한 정렬을 필요로 하는데, 이는 종종 초점이 맞지 않고 흐릿한 영상을 피하기 어렵다는 것을 의미한다. 세포에 대해 초점이 맞지 않는 것은 20%-50%의 흐르는 세포들이 AI 훈련을 위해 제대로 촬영되지 않는 결과를 초래할 수 있다. 또 감도와 획득 속도 사이의 절충으로 인해 랩온어칩 플랫폼에서 세포 이미지의 중요한 정보가 생략될 수 있다. 예를 들어, 초당 100,000개의 셀의 높은 처리량으로 OTS 영상의 공간 분해능은 광학적 회절 한계(즉, 약 1μ m)30,37로 제한되며, 이는 세포하 구조를 식별하기에 불충분하다. 또한, AI 기반 분석은 시간이 많이 걸리는 교육, 하이퍼파라미터 조정(모델의 성능을 확보하기 위해 조절하는 주요 설정값), 기울기 소멸 문제(신경망의 활성함수의 도함수값이 계속 곱해지면 가중치에 따른 결과값의 기울기가 0이 되어 버려서, 경사 하강법을 이용할 수 없게 되는 문제), 학습 레이블에 대한 의존성, 의사 결정의 견고성과 유연성 부족, 의사 결정 과정 설명의 어려움과 같은 몇 가지 주요 문제로 어려움을 겪고 있다. AI 방법에 대한 하이퍼파라미터 튜닝에 대한 지침이 거의 없기 때문에 신경망의 구조를 최적화하는 지루한 시행착오 과정이 발생한다. 또한 신경망 모델은 내용을 구상하는 대신 훈련 데이터 세트의 특정 패턴만 캡처할 수 있으므로 훈련된 모델의 유연성은 다음과 같이 제한된다. 예를 들어, DeepMind의 Atari 시스템(벽돌깨기)은 훈련 데이터 세트에 있는 것과 비교하여 패들의 높이만 변경된 일부 테스트에서 실패한 바 있다.
컴퓨터 하드웨어, 특히 그래픽 처리 장치(GPU)의 성능의 빠른 발달에 의해 AI는 고급 아키텍처로 향상되었으며 랩온어칩 플랫폼에 엄청난 잠재력을 제공하고 있다.88 기존 칩에 대한 AI 시연의 대부분이 기반이었던 지도학습 외에도, 비지도학습과 강화학습은 AI온어칩 플랫폼의 기능을 크게 향상시킬 수 있었다.1,33,56,89 주어진 라벨에 기초하여 데이터를 분류하는 지도된 학습과 달리, 비지도 학습은 라벨 없이 데이터의 내부 관계를 감지할 수 있다.90 세포 선별을 예로 들면, 비지도 학습은 종양 세포 순환이나 심지어 종양 줄기 세포 순환과 같은 희귀 세포를 찾는데 사용될 수 있다. 이 세포들을 가지고 알고리즘을 훈련시키는 것은 보통 매우 어렵거나 심지어 다른 방법으로는 획득이 불가능하다. 희귀성이나 다른 세포와의 미묘한 차이 때문에 인류에게 알려지지 않은 숨겨진 그룹을 발견해 새로운 세포 유형을 발견하게 할 수도 있다. 뿐만 아니라, 라벨이 필요하지 않기 때문에, 비지도 학습은 우리가 세포를 보는 방식에 혁명을 일으킬 수 있으며, 인간이 개발한 것과 완전히 다른 표준을 사용함으로써 이러한 세포들을 분리할 수도 있다. 알파고가 인간 플레이어를 압도해온 방식과 유사하게, 강화 학습은 인간이 헤아릴 수 없는 독특한 경로를 통해 거의 완벽하게 목표를 달성할 수 있다.91 이것은 약물 발견과 질병 치료와 같은 복잡한 작업에 특히 유용할 수 있다. 강화학습은 또한 독특한 성분과 가공 절차를 이용해 기존 어떤 신약보다 효과가 뛰어난 신약 합성에 도움이 될 것으로 기대한다. 마찬가지로, 암, 에이즈, 최근의 코로나바이러스 질병(coronavirus disease 2019)과 같이 확립된 방법으로 치료하기 어려운 질병을 치료하기 위한 계획을 조작하기 위해 서로 다른 치료 방법을 결합할 수도 있다. 한마디로 비지도 학습과 강화학습으로 기계 고유의 지능을 더욱 끌어올려 칩 위의 AI가 인간 인식의 한계를 무시하고 비뇨의학을 포함한 다양한 분야에서 우리의 역량을 크게 높일 수 있을 것으로 기대한다.

CONFLICT OF INTEREST

저자들은 이 논문과 관련하여 이해관계의 충돌이 없음을 명시합니다.

NOTES

Funding

This work was supported by the National Research Foundation of Korea (NRF) grant funded by the Korea government (MSIT) (No. 2022R1A2C2008207).

REFERENCES

1.Nitta N, Sugimura T, Isozaki A, Mikami H, Hiraki K, Sakuma S, et al. Intelligent image-activated cell sorting. Cell 2018;175:266-76; e13.
crossref pmid
2.Shah P, Kendall F, Khozin S, Goosen R, Hu J, Laramie J, et al. Artificial intelligence and machine learning in clinical development: a translational perspective. NPJ Digit Med 2019;2:69.
crossref pmid pmc pdf
3.McKinney SM, Sieniek M, Godbole V, Godwin J, Antropova N, Ashrafian H, et al. International evaluation of an AI system for breast cancer screening. Nature 2020;577:89-94.
crossref pmid pdf
4.Attia PM, Grover A, Jin N, Severson KA, Markov TM, Liao YH, et al. Closed-loop optimization of fast-charging protocols for batteries with machine learning. Nature 2020;578:397-402.
crossref pmid pdf
5.Mennel L, Symonowicz J, Wachter S, Polyushkin DK, Molina-Mendoza AJ, Mueller T. Ultrafast machine vision with 2D material neural network image sensors. Nature 2020;579:62-6.
crossref pmid pdf
6.Raccuglia P, Elbert KC, Adler PD, Falk C, Wenny MB, Mollo A, et al. Machine-learning-assisted materials discovery using failed experiments. Nature 2016;533:73-6.
crossref pmid pdf
7.Khosravi P, Kazemi E, Zhan Q, Malmsten JE, Toschi M, Zisimopoulos P, et al. Deep learning enables robust assessment and selection of human blastocysts after in vitro fertilization. NPJ Digit Med 2019;2:21.
crossref pmid pmc pdf
8.Kobayashi H, Lei C, Wu Y, Huang CJ, Yasumoto A, Jona M, et al. Intelligent whole-blood imaging flow cytometry for simple, rapid, and cost-effective drug-susceptibility testing of leukemia. Lab Chip 2019;19:2688-98.
crossref pmid
9.Hezaveh YD, Levasseur LP, Marshall PJ. Fast automated analysis of strong gravitational lenses with convolutional neural networks. Nature 2017;548:555-7.
crossref pmid pdf
10.Anumanchipalli GK, Chartier J, Chang EF. Speech synthesis from neural decoding of spoken sentences. Nature 2019;568:493-8.
crossref pmid pmc pdf
11.Jordan NV, Bardia A, Wittner BS, Benes C, Ligorio M, Zheng Y, et al. HER2 expression identifies dynamic functional states within circulating breast cancer cells. Nature 2016;537:102-6.
crossref pmid pmc pdf
12.Chabon JJ, Hamilton EG, Kurtz DM, Esfahani MS, Moding EJ, Stehr H, et al. Integrating genomic features for non-invasive early lung cancer detection. Nature 2020;580:245-51.
crossref pmid pmc pdf
13.Uddin M, Wang Y, Woodbury-Smith M. Artificial intelligence for precision medicine in neurodevel-opmental disorders. NPJ Digit Med 2019;2:112.
crossref pmid pmc pdf
14.Syed-Abdul S, Firdani RP, Chung HJ, Uddin M, Hur M, Park JH, et al. Artificial intelligence based models for screening of hematologic malignancies using cell population data. Sci Rep 2020;10:4583.
crossref pmid pmc pdf
15.Stokes JM, Yang K, Swanson K, Jin W, Cubillos-Ruiz A, Donghia NM, et al. A deep learning approach to antibiotic discovery. Cell 2020;180:688-702; e13.
crossref pmid pmc
16.Kim D, Min Y, Oh JM, Cho YK. AI-powered transmitted light microscopy for functional analysis of live cells. Sci Rep 2019;9:18428.
crossref pmid pmc pdf
17.Williamson DJ, Burn GL, Simoncelli S, Griffie J, Peters R, Davis DM, et al. Machine learning for cluster analysis of localization microscopy data. Nat Commun 2020;11:1493.
crossref pmid pmc pdf
18.Guo B, Lei C, Kobayashi H, Ito T, Yalikun Y, Jiang Y, et al. High-throughput, label-free, single-cell, microalgal lipid screening by machine-learning-equipped optofluidic time-stretch quantitative phase microscopy. Cytometry A 2017;91:494-502.
crossref pmid pdf
19.Sims CE, Allbritton NL. Analysis of single mammalian cells on-chip. Lab Chip 2007;7:423-40.
crossref pmid
20.Paie P, Bragheri F, Vazquez RM, Osellame R. Straightforward 3D hydrodynamic focusing in fem-tosecond laser fabricated microfluidic channels. Lab Chip 2014;14:1826-33.
crossref pmid
21.Lee KCM, Lau AKS, Tang AHL, Wang M, Mok ATY, Chung BMF, et al. Multi-ATOM: Ultrahigh-throughput single-cell quantitative phase imaging with subcellular resolution. J Biophotonics 2019;12:e201800479.
crossref pmid pmc pdf
22.Nordin M, Laurell T. Two-hundredfold volume concentration of dilute cell and particle suspensions using chip integrated multistage acoustophoresis. Lab Chip 2012;12:4610-6.
crossref pmid
23.Feizi A, Zhang Y, Greenbaum A, Guziak A, Luong M, Chan RY, et al. Rapid, portable and cost-effective yeast cell viability and concentration analysis using lensfree on-chip microscopy and machine learning. Lab Chip 2016;16:4350-8.
crossref pmid
24.Riordon J, Sovilj D, Sanner S, Sinton D, Young EWK. Deep learning with microfluidics for bio-technology. Trends Biotechnol 2019;37:310-24.
crossref pmid
25.Rossi D, Dannhauser D, Telesco M, Netti PA, Causa F. CD4+ versus CD8+ T-lymphocyte identification in an integrated microfluidic chip using light scattering and machine learning. Lab Chip 2019;19:3888-98.
crossref pmid
26.Guo B, Lei C, Wu Y, Kobayashi H, Ito T, Yalikun Y, et al. Optofluidic time-stretch quantitative phase microscopy. Methods 2018;136:116-25.
crossref pmid
27.Wu F, Zhang X, Cheung JY, Shi K, Liu Z, Luo C, et al. Frequency division multiplexed multichannel high-speed fluorescence confocal microscope. Biophys J 2006;91:2290-6.
crossref pmid pmc
28.Galland R, Grenci G, Aravind A, Viasnoff V, Studer V, Sibarita JB. 3D high- and super-resolution imaging using single-objective SPIM. Nat Methods 2015;12:641-4.
crossref pmid pdf
29.Wu J, Li J, Chan RK. A light sheet based high throughput 3D-imaging flow cytometer for phytoplankton analysis. Opt Express 2013;21:14474-80.
crossref
30.Merola F, Memmolo P, Miccio L, Savoia R, Mugnano M, Fontana A, et al. Tomographic flow cytometry by digital holography. Light Sci Appl 2017;6:e16241.
crossref pmid pmc pdf
31.Kanno H, Mikami H, Kaya Y, Ozeki Y, Goda K. Simple, stable, compact implementation of frequency-division-multiplexed microscopy by inline interferometry. Opt Lett 2019;44:467-70.
crossref pmid
32.Kanno H, Mikami H, Goda K. High-speed single-pixel imaging by frequency-time-division multiplexing. Opt Lett 2020;45:2339-42.
crossref pmid
33.Isozaki A, Mikami H, Hiramatsu K, Sakuma S, Kasai Y, Iino T, et al. A practical guide to intelligent image-activated cell sorting. Nat Protoc 2019;14:2370-415.
crossref pmid pdf
34.Basiji DA, Ortyn WE, Liang L, Venkatachalam V, Morrissey P. Cellular image analysis and imaging by flow cytometry. Clin Lab Med 2007;27:653-70; viii.
crossref pmid pmc
35.Zmijan R, Jonnalagadda US, Carugo D, Kochi Y, Lemm E, Packham G, et al. High throughput imaging cytometer with acoustic focussing. RSC Adv 2015;5:83206-16.
crossref pmid pmc
36.Isozaki A, Mikami H, Tezuka H, Matsumura H, Huang K, Akamine M, et al. Intelligent image-activated cell sorting 2.0. Lab Chip 2020;20:2263-73.
crossref pmid
37.Goda K, Tsia KK, Jalali B. Serial time-encoded amplified imaging for real-time observation of fast dynamic phenomena. Nature 2009;458:1145-9.
crossref pmid pdf
38.Goda K, Ayazi A, Gossett DR, Sadasivam J, Lonappan CK, Sollier E, et al. High-throughput single-microparticle imaging flow analyzer. Proc Natl Acad Sci U S A 2012;109:11630-5.
crossref pmid pmc
39.Blasi T, Hennig H, Summers HD, Theis FJ, Cerveira J, Patterson JO, et al. Label-free cell cycle analysis for high-throughput imaging flow cytometry. Nat Commun 2016;7:10256.
crossref pmid pmc pdf
40.Eulenberg P, Kohler N, Blasi T, Filby A, Carpenter AE, Rees P, et al. Reconstructing cell cycle and disease progression using deep learning. Nat Commun 2017;8:463.
crossref pmid pmc pdf
41.Oliver CR, Altemus MA, Westerhof TM, Cheriyan H, Cheng X, Dziubinski M, et al. A platform for artificial intelligence based identification of the extravasation potential of cancer cells into the brain metastatic niche. Lab Chip 2019;19:1162-73.
crossref pmid pmc
42.Kanakasabapathy MK, Thirumalaraju P, Bormann CL, Kandula H, Dimitriadis I, Souter I, et al. Development and evaluation of inexpensive automated deep learning-based imaging systems for embryology. Lab Chip 2019;19:4139-45.
crossref pmid pmc
43.Nawaz AA, Urbanska M, Herbig M, Notzel M, Krater M, Rosendahl P, et al. Intelligent image-based deformation-assisted cell sorting with molecular specificity. Nat Methods 2020;17:595-9.
crossref pmid pdf
44.Miura T, Mikami H, Isozaki A, Ito T, Ozeki Y, Goda K. On-chip light-sheet fluorescence imaging flow cytometry at a high flow speed of 1 m/s. Biomed Opt Express 2018;9:3424-33.
crossref pmid pmc
45.Munoz HE, Li M, Riche CT, Nitta N, Diebold E, Lin J, et al. Single-cell analysis of morphological and metabolic heterogeneity in euglena gracilis by fluorescence-imaging flow cytometry. Anal Chem 2018;90:11280-9.
crossref pmid
46.Cui X, Lee LM, Heng X, Zhong W, Sternberg PW, Psaltis D, et al. Lensless high-resolution on-chip optofluidic microscopes for Caenorhabditis elegans and cell imaging. Proc Natl Acad Sci U S A 2008;105:10670-5.
crossref pmid pmc
47.Pang S, Cui X, DeModena J, Wang YM, Sternberg P, Yang C. Implementation of a color-capable optofluidic microscope on a RGB CMOS color sensor chip substrate. Lab Chip 2010;10:411-4.
crossref pmid pmc
48.Zheng G, Lee SA, Antebi Y, Elowitz MB, Yang C. The ePetri dish, an on-chip cell imaging platform based on subpixel perspective sweeping microscopy (SPSM). Proc Natl Acad Sci U S A 2011;108:16889-94.
crossref pmid pmc
49.Buttarello M, Plebani M. Automated blood cell counts: state of the art. Am J Clin Pathol 2008;130:104-16.
crossref pmid
50.Garcia-Sucerquia J, Xu W, Jericho MH, Kreuzer HJ. Immersion digital inline holographic microscopy. Opt Lett 2006;31:1211-3.
crossref pmid
51.Bishara W, Sikora U, Mudanyali O, Su TW, Yaglidere O, Luckhart S, et al. Holographic pixel super-resolution in portable lensless on-chip microscopy using a fiber-optic array. Lab Chip 2011;11:1276-9.
crossref pmid pmc
52.Isikman SO, Bishara W, Mavandadi S, Yu FW, Feng S, Lau R, et al. Lens-free optical tomographic microscope with a large imaging volume on a chip. Proc Natl Acad Sci U S A 2011;108:7296-301.
crossref pmid pmc
53.Stassen SV, Siu DMD, Lee KCM, Ho JWK, So HKH, Tsia KK. PARC: ultrafast and accurate clustering of phenotypic data of millions of single cells. Bioin-formatics 2020;36:2778-86.
crossref pmid pmc pdf
54.Figueroa RL, Zeng-Treitler Q, Kandula S, Ngo LH. Predicting sample size required for classification performance. BMC Med Inform Decis Mak 2012;12:8.
crossref pmid pmc pdf
55.Wang D, Fong S, Wong RK, Mohammed S, Fiaidhi J, Wong KK. Robust high-dimensional bioinformatics data streams mining by ODR-ioVFDT. Sci Rep 2017;7:43167.
crossref pmid pmc pdf
56.Chen CL, Mahjoubfar A, Tai LC, Blaby IK, Huang A, Niazi KR, et al. Deep learning in label-free cell classification. Sci Rep 2016;6:21471.
crossref pmid pmc pdf
57.Brasko C, Smith K, Molnar C, Farago N, Hegedus L, Balind A, et al. Intelligent image-based in situ single-cell isolation. Nat Commun 2018;9:226.
crossref pmid pmc pdf
58.Doan M, Carpenter AE. Leveraging machine vision in cell-based diagnostics to do more with less. Nat Mater 2019;18:414-8.
crossref pmid pdf
59.Jaderberg M, Czarnecki WM, Dunning I, Marris L, Lever G, Castaneda AG, et al. Human-level performance in 3D multiplayer games with population-based reinforcement learning. Science 2019;364:859-65.
crossref pmid
60.Nassar M, Doan M, Filby A, Wolkenhauer O, Fogg DK, Piasecka J, et al. Label-free identification of white blood cells using machine learning. Cytometry A 2019;95:836-42.
crossref pmid pmc pdf
61.Li Y, Mahjoubfar A, Chen CL, Niazi KR, Pei L, Jalali B. Deep cytometry: deep learning with real-time inference in cell sorting and flow cytometry. Sci Rep 2019;9:11088.
crossref pmid pmc pdf
62.Kobayashi H, Lei C, Wu Y, Mao A, Jiang Y, Guo B, et al. Label-free detection of cellular drug responses by high-throughput bright-field imaging and machine learning. Sci Rep 2017;7:12454.
crossref pmid pmc pdf
63.Jiang Y, Lei C, Yasumoto A, Kobayashi H, Aisaka Y, Ito T, et al. Label-free detection of aggregated platelets in blood by machine-learning-aided optofluidic time-stretch microscopy. Lab Chip 2017;17:2426-34.
crossref pmid
64.Zhou Y, Yasumoto A, Lei C, Huang CJ, Kobayashi H, Wu Y, et al. Intelligent classification of platelet aggregates by agonist type. Elife 2020;9:e52938.
crossref pmid pmc pdf
65.Huang X, Jiang Y, Liu X, Xu H, Han Z, Rong H, et al. Machine learning based single-frame super-resolution processing for lensless blood cell counting. Sensors (Basel) 2016;16:1836.
crossref pmid pmc
66.Goldenberg SL, Nir G, Salcudean SE. A new era: artificial intelligence and machine learning in prostate cancer. Nat Rev Urol 2019;16:391-403.
crossref pmid pdf
67.Strom P, Kartasalo K, Olsson H, Solorzano L, Delahunt B, Berney DM, et al. Artificial intelligence for diagnosis and grading of prostate cancer in biopsies: a population-based, diagnostic study. Lancet Oncol 2020;21:222-32.
crossref pmid
68.Wildeboer RR, Mannaerts CK, van Sloun RJG, Bu-daus L, Tilki D, Wijkstra H, et al. Automated multiparametric localization of prostate cancer based on B-mode, shear-wave elastography, and contrast-enhanced ultrasound radiomics. Eur Radiol 2020;30:806-15.
crossref pmid pmc pdf
69.Viswanath SE, Chirra PV, Yim MC, Rofsky NM, Purysko AS, Rosen MA, et al. Comparing radiomic classifiers and classifier ensembles for detection of peripheral zone prostate tumors on T2-weighted MRI: a multi-site study. BMC Med Imaging 2019;19:22.
crossref pmid pmc pdf
70.Bulten W, Pinckaers H, van Boven H, Vink R, de Bel T, van Ginneken B, et al. Automated deep-learning system for Gleason grading of prostate cancer using biopsies: a diagnostic study. Lancet Oncol 2020;21:233-41.
crossref pmid
71.Eminaga O, Eminaga N, Semjonow A, Breil B. Diagnostic classification of cystoscopic images using deep convolutional neural networks. JCO Clin Cancer Inform 2018;2:1-8.
crossref
72.Xu X, Zhang X, Tian Q, Zhang G, Liu Y, Cui G, et al. Three-dimensional texture features from intensity and high-order derivative maps for the discrimination between bladder tumors and wall tissues via MRI. Int J Comput Assist Radiol Surg 2017;12:645-56.
crossref pmid pdf
73.Ikeda A, Nosato H, Kochi Y, Kojima T, Kawai K, Sakanashi H, et al. Support system of cystoscopic diagnosis for bladder cancer based on artificial intelligence. J Endourol 2020;34:352-8.
crossref pmid pmc
74.Lorencin I, Andelic N, Spanjol J, Car Z. Using multi-layer perceptron with Laplacian edge detector for bladder cancer diagnosis. Artif Intell Med 2020;102:101746.
crossref pmid
75.Hashemi SMR, Hassanpour H, Kozegar E, Tan T. Cystoscopic image classification based on combining MLP and GA. Int J Nonlinear Anal Appl 2020;11:93-105.
76.Shkolyar E, Jia X, Chang TC, Trivedi D, Mach KE, Meng MQ, et al. Augmented bladder tumor detection using deep learning. Eur Urol 2019;76:714-8.
crossref pmid pmc
77.Teoh J, Chan E, Cheuk A, Chan R, Qin J, Ng C. A newly developed computer-aided endoscopic diagnostic system for bladder cancer detection. Eur Urol Open Science 2020;19:e1364-5.
crossref
78.Yan L, Liu Z, Wang G, Huang Y, Liu Y, Yu Y, et al. Angiomyolipoma with minimal fat: differentiation from clear cell renal cell carcinoma and papillary renal cell carcinoma by texture analysis on CT images. Acad Radiol 2015;22:1115-21.
pmid
79.Kocak B, Yardimci AH, Bektas CT, Turkcanoglu MH, Erdim C, Yucetas U, et al. Textural differences between renal cell carcinoma subtypes: machine learning-based quantitative computed tomography texture analysis with independent external validation. Eur J Radiol 2018;107:149-57.
crossref pmid
80.Feng Z, Rong P, Cao P, Zhou Q, Zhu W, Yan Z, et al. Machine learning-based quantitative texture analysis of CT images of small renal masses: differentiation of angiomyolipoma without visible fat from renal cell carcinoma. Eur Radiol 2018;28:1625-33.
crossref pmid pdf
81.Coy H, Hsieh K, Wu W, Nagarajan MB, Young JR, Douek ML, et al. Deep learning and radiomics: the utility of Google TensorFlow Inception in classifying clear cell renal cell carcinoma and oncocytoma on multiphasic CT. Abdom Radiol (NY) 2019;44:2009-20.
crossref pmid pdf
82.Kim JH, Lee S, Kang SJ, Choi YW, Choi SY, Park JY, et al. Establishment of three-dimensional bioprinted bladder cancer-on-a-chip with a microfluidic system using bacillus Calmette-Guerin. Int J Mol Sci 2021;22:8887.
pmid pmc
83.Sonke GS, Heskes T, Verbeek AL, de la Rosette JJ, Kiemeney LA. Prediction of bladder outlet obstruction in men with lower urinary tract symptoms using artificial neural networks. J Urol 2000;163:300-5.
crossref pmid
84.Jang KS, Kim JW, Ryu J. Numerical investigation of urethra flow characteristics in benign prostatic hyperplasia. Comput Methods Programs Biomed 2022;224:106978.
crossref pmid
85.Kadlec AO, Ohlander S, Hotaling J, Hannick J, Niederberger C, Turk TM. Nonlinear logistic regression model for outcomes after endourologic procedures: a novel predictor. Urolithiasis 2014;42:323-7.
crossref pmid pdf
86.Seckiner I, Seckiner S, Sen H, Bayrak O, Dogan K, Erturhan S. A neural network - based algorithm for predicting stone - free status after ESWL therapy. Int Braz J Urol 2017;43:1110-4.
crossref pmid pmc
87.Blum ES, Porras AR, Biggs E, Tabrizi PR, Sussman RD, Sprague BM, et al. Early detection of ureteropelvic junction obstruction using signal analysis and machine learning: a dynamic solution to a dynamic problem. J Urol 2018;199:847-52.
crossref pmid
88.Rajkomar A, Dean J, Kohane I. Machine learning in medicine. Reply N Engl J Med 2019;380:2589-90.
crossref pmid
89.Lei C, Kobayashi H, Wu Y, Li M, Isozaki A, Yasumoto A, et al. High-throughput imaging flow cytometry by optofluidic time-stretch microscopy. Nat Protoc 2018;13:1603-31.
crossref pmid pdf
90.Bengio Y, Courville A, Vincent P. Representation learning: a review and new perspectives. IEEE Trans Pattern Anal Mach Intell 2013;35:1798-828.
crossref pmid
91.Mnih V, Kavukcuoglu K, Silver D, Rusu AA, Veness J, Bellemare MG, et al. Human-level control through deep reinforcement learning. Nature 2015;518:529-33.
crossref pmid pdf


Editorial Office
Department of Urology, Seoul National University Hospital, Seoul National University College of Medicine,
101 Daehak-ro, Jongno-gu, Seoul 03080, Korea
TEL: +82-2-2072-0817,   FAX: +82-2-742-4665   Email: journal@e-juo.org
Korean Urological Oncology Society
50-1 Yonsei-ro, Seodaemun-gu, Seoul 03722, Korea
Tel: +82-2-704-8574, E-mail: leeseh@yuhs.ac

Copyright © The Korean Urological Oncology Society.

Developed in M2PI