Nếu bạn đang tự hỏi máy ảnh điện thoại tiếp theo sẽ hoạt động tốt như thế nào, thì nên chú ý đến những gì nhà sản xuất nói về AI (trí tuệ nhân tạo). Công nghệ AI đã giúp lĩnh vực nhiếp ảnh có những cải tiến đáng kinh ngạc trong vài năm qua và quá trình vẫn đang tiếp tục phát triển.

Google Photos đã minh chứng rõ ràng nhất về sự kết hợp giữa AI và nhiếp ảnh mạnh mẽ như thế nào khi ứng dụng ra mắt vào năm 2015. Trước đó, gã khổng lồ tìm kiếm đã sử dụng AI và máy học (ML) để phân loại hình ảnh trong Google+. Trong ứng dụng này, nếu người dùng có một thư viện ảnh vô tổ chức gồm hàng ngàn bức ảnh được chuyển thành cơ sở dữ liệu có thể tìm kiếm bằng ngôn ngữ chỉ trong giây lát.
Bằng cách thiết lập một “mạng lưới thần kinh” được đào tạo để có thể “thấy” được nội dung của từng bức ảnh, quá trình bao gồm đào tạo mạng trên hàng triệu hình ảnh để nó có thể tìm kiếm manh mối trực quan ở cấp độ pixel để giúp xác định nội dung, danh mục hình ảnh.
Tuy nhiên, phần mềm quản lý ảnh thông minh là một chuyện, AI và máy học được cho là có tác động lớn hơn đến cách ảnh được chụp ở nơi đầu tiên. Điều này đòi hỏi ống kính và các cảm biến nhanh hơn và lớn hơn một chút, trong khi những hạn chế về mặt vật lý khi nhồi nhét hệ thống quang học vào các thiết bị di động mỏng cần được khắc phục.
Ngày nay, không có gì lạ khi điện thoại chụp ảnh tốt hơn trong một số trường hợp so với nhiều thiết bị máy ảnh chuyên dụng, ít nhất là trước khi xử lý hậu kỳ. Đó là bởi vì các máy ảnh truyền thống không thể cạnh tranh trên một loại phần cứng khác cũng giống vậy nhưng lại có thêm một bộ xử lý thần kinh (NPU).
Đây là phần cứng được sử dụng để gọi là nhiếp ảnh tính toán, một thuật ngữ bao quát mọi thứ, từ hiệu ứng độ sâu trường ảnh trong chế độ chân dung của điện thoại đến các thuật toán giúp tăng chất lượng hình ảnh. Không phải tất cả các nhiếp ảnh tính toán đều liên quan đến AI, nhưng AI chắc chắn là một thành phần của nó.
Apple sử dụng công nghệ này để điều khiển chế độ chân dung của điện thoại có camera kép. Bộ xử lý tín hiệu hình ảnh của iPhone sử dụng các kỹ thuật học máy để nhận dạng người bằng camera thứ nhất, trong khi camera thứ hai tạo bản đồ độ sâu để giúp cách ly đối tượng và làm mờ hậu cảnh. Khả năng nhận ra hình người thông qua học máy không phải là mới khi tính năng này ra mắt vào năm 2016, vì đó là điều mà phần mềm tổ chức ảnh đã làm. Nhưng để quản lý nó trong thời gian thực với tốc độ cần thiết cho máy ảnh điện thoại thông minh là một bước đột phá.
Google vẫn đi đầu trong lĩnh vực này, với kết quả tuyệt vời được tạo ra bởi cả ba thế hệ điện thoại Pixel là bằng chứng thuyết phục nhất, bao gồm HDR +, chế độ chụp mặc định, sử dụng thuật toán phức tạp để hợp nhất một số khung hình thiếu sáng thành một. Cách đây vài tháng, Google cũng giới thiệu Night Sight - tính năng cho phép ghép các phơi sáng dài lại với nhau và sử dụng thuật toán học máy để tính toán cân bằng trắng và màu sắc chính xác hơn. Night Sight hoạt động tốt nhất trên Pixel 3, vì các thuật toán được thiết kế với phần cứng gần đây nhất, nhưng Google đã cung cấp nó cho tất cả các điện thoại Pixel của mình.
Google và Apple đã cho thấy một số công việc ấn tượng trong nhiếp ảnh tính toán, những lợi ích thực sự từ các máy ảnh điện thoại đã được thiết kế xung quanh máy học, trong khi các mạng thần kinh đang ngày càng nhanh hơn. Trên thực tế, trong số tất cả các khả năng và ứng dụng được đưa ra bởi làn sóng AI trong vài năm qua, lĩnh vực ứng dụng nhiều nhất vẫn là nhiếp ảnh. Máy ảnh là một tính năng thiết yếu của bất kỳ điện thoại nào và AI là công nghệ tốt nhất để chúng ta cải thiện nó.
HOÀNG THY (Theo The Verge)