Thông tin từ hình ảnh y sinh giúp phát hiện nhanh tế bào ung thư

Thời gian phát hiện tế bào ung thư giảm từ 8 – 10 tiếng xuống chỉ còn 5 phút, và đặc biệt có khả năng tiếp tục giảm thêm tùy theo số lượng hình ảnh mà máy được học.

Bên cạnh các giải pháp quan trắc, cảnh báo chất lượng không khí; hệ thống điều khiển giao thông thông minh; ứng dụng blockchain và IoT trong thành phố… tại hội thảo khoa học Smart City 3600 lần thứ II năm 2018 thì công nghệ truy xuất thông tin từ dữ liệu hình ảnh rất được quan tâm.

Trong phần trình bày, diễn giả TS.BS Đoàn Xuân Quang Minh thuộc Broad Institute of MIT & Harvard giới thiệu về hệ thống truy xuất thông tin từ dữ liệu hình ảnh y sinh kết hợp bộ 3 “máy học, thị giác máy tính và học sâu”.

TS.BS Minh cho biết các thông tin của cơ thể người được thể hiện ở nhân tế bào. Nếu có thể đọc và phân tích được các thông tin từ hình dạng của nhân tế bào sẽ có ý nghĩa rất lớn trong ngành y sinh, nhưng các nhân tế bào có hình dạng rất phức tạp, khó phân biệt nên những phần mềm y tế hàng đầu hiện nay cũng chưa làm được.

Để giải quyết bài toán đó, nhóm nghiên cứu tại phòng phân tích hình ảnh ở Broad Institute of MIT & Harvard đã cùng kết hợp với các chuyên gia của Kaggle (thuộc Google), NVIDIA và tập đoàn tư vấn Booz-Allen-Halminton tổ chức cuộc thi giải thuật Data Science Bowl 2018 nhằm tìm kiếm những giải pháp tối ưu, toàn diện, hiệu quả, linh hoạt cho việc xác định nhân tế bào trong nhiều bối cảnh nghiên cứu khác nhau (độ phóng đại thay đổi, cắt lớp 2 hoặc 3 chiều, thuốc nhuộm đặc thù khác nhau, các dòng tế bào thông thường/đặc biệt…).

Nhóm nhà khoa học và chuyên gia của phòng phân tích hình ảnh ở Broad Institute of MIT & Harvard đã nỗ lực gần 4 tháng vẽ đường biên thủ công cho gần 40.000 nhân tế bào để cung cấp dữ liệu cho cuộc thi. Cuộc thi đã ghi nhận được tổng số 68.000 giải thuật, trong đó 6/100 giải pháp lọt vào chung kết là của các tác giải người Việt. Ba giải pháp đoạt giải đều rất thuyết phục khi đưa ra chính xác đáp án về vị trí và đường biên cho mỗi nhân tế bào.

Giải pháp kết hợp bộ 3 “máy học, thị giác máy tính và học sâu” để đo đạc, phân loại tự động nhân tế bào tỏ ra đặc biệt hiệu quả. Giải pháp này cho phép phát hiện tế bào ung thư qua hình chụp với độ chính xác cao và tiết kiệm được đáng kể chi phí và thời gian thực hiện.

Để xác định tế bào ung thư máu, các bác sĩ phải sử dụng đến 8 loại marker. Khi sử dụng công nghệ mới này, nếu bỏ qua 1 marker thì độ chính xác vẫn lên tới 99%. Thậm chí không sử dụng marker nào, hệ thống chỉ đọc hình ảnh đen trắng vẫn cho độ chính xác đạt 89%.

Theo TS.BS Minh, kết quả này giúp các bệnh viện tiết kiệm được nhiều chi phí, thời gian xác định tế bào ung thư giảm từ 8 – 10 tiếng xuống chỉ còn 5 phút. Khả năng của hệ thống sẽ còn tiếp tục tăng lên theo số lượng hình ảnh được học.

Thậm chí khi gặp các hình ảnh có chất lượng không tốt, thị giác máy tính có thể tự khôi phục những phần bị mất, bị mờ trên ảnh. Hệ thống không giới hạn ở hình ảnh tĩnh mà nếu được cung cấp đủ dữ liệu để học, hệ thông còn có thể phân tích được hình ảnh 360 độ hoặc qua các đoạn video.

Cũng tại hội thảo khoa học Smart City 3600 lần thứ II năm 2018, diễn giả Đoàn Chí Hiếu từ HPE Việt Nam giới thiệu những tính năng của giải pháp phân tích hình ảnh từ video phục vụ cho quản lý được HPE phát triển.

Kết hợp camera thông minh và phần mềm phân tích, giải pháp tạo ra nhiều ứng dụng hữu ích trong thực tế, có khả năng áp dụng trong xây dựng thành phố thông minh.

Một ví dụ được diễn giả Hiếu đưa ra là dựa trên hình ảnh camera ghi lại, nhà quản lý có thể quét các khuôn mặt trong đám đông, tự động tính được số lượng người cũng như đảm bảo an ninh.

Hệ thống cũng có thể được triển khai tại các công trường để theo dõi việc đảm bảo quy trình của công nhân như có mặc đủ các trang bị đảm bảo an toàn hay không. Giải pháp này có thể sử dụng cho cả các thiết bị bay drone.

Ông Hiếu còn cho biết hệ thống giám sát của Singapore còn có thể giám sát ở mức độ rất cao. Chỉ cần nhập hình ảnh của một người hay biển số xe, hệ thống sẽ thông báo những vị trí, thời gian mà người hoặc xe đó từng xuất hiện.