Nhu cầu năng lượng vô độ của AI đang trở nên cấp thiết
Amazon (AMZN) hiện diện ở khắp mọi nơi trên thế giới ngày nay, không chỉ là một trong những sàn giao dịch trực tuyến lớn nhất và uy tín nhất mà còn là một trong những nhà cung cấp trung tâm dữ liệu lớn nhất.
Điều ít được biết đến hơn là Amazon là chủ sở hữu và điều hành các nhà máy điện hạt nhân.
Tuy nhiên, đó chính xác là những gì công ty con về điện toán đám mây, AWS, đã làm vào tháng 3 khi mua một trung tâm dữ liệu chạy bằng năng lượng hạt nhân trị giá 650 triệu đô la từ Talen Energy ở Pennsylvania.
Trên bề mặt, thỏa thuận này cho thấy kế hoạch mở rộng đầy tham vọng của Amazon. Nhưng đào sâu hơn, việc công ty mua một cơ sở điện hạt nhân cho thấy một vấn đề rộng hơn mà Amazon và các gã khổng lồ công nghệ khác đang phải vật lộn: nhu cầu năng lượng vô độ từ trí tuệ nhân tạo.
Trong trường hợp của Amazon, AWS đã mua trung tâm dữ liệu chạy bằng năng lượng hạt nhân của Talen Energy tại Pennsylvania để đặt trung tâm dữ liệu AI đang mở rộng nhanh chóng của mình bên cạnh một nguồn điện, đáp ứng nhu cầu năng lượng mà trí tuệ nhân tạo tạo ra.
Chiến lược này là biểu hiện của sự tính toán năng lượng đang diễn ra khi AI đang dần xâm nhập vào cuộc sống hàng ngày của người tiêu dùng — hỗ trợ mọi thứ, từ tìm kiếm trên internet đến các thiết bị thông minh và ô tô.
Các công ty như Google (GOOG, GOOGL), Apple (AAPL) và Tesla (TSLA) tiếp tục nâng cao khả năng AI bằng các sản phẩm và dịch vụ mới. Mỗi tác vụ AI đòi hỏi sức mạnh tính toán khổng lồ, dẫn đến mức tiêu thụ điện đáng kể thông qua các trung tâm dữ liệu ngốn nhiều năng lượng.
Theo ước tính, đến năm 2027, mức tiêu thụ điện liên quan đến AI trên toàn cầu có thể tăng 64%, đạt tới 134 terawatt giờ mỗi năm — hoặc tương đương với mức sử dụng điện của các quốc gia như Hà Lan hoặc Thụy Điển.
Điều này đặt ra một câu hỏi quan trọng: Các công ty công nghệ lớn đang giải quyết nhu cầu năng lượng mà các cải tiến AI trong tương lai của họ sẽ yêu cầu như thế nào?
Tiêu thụ năng lượng ngày càng tăng của AI
Theo Pew Research, hơn một nửa người Mỹ tương tác với AI ít nhất một lần mỗi ngày.
Nhà nghiên cứu và nhà khoa học dữ liệu nổi tiếng Sasha Luccioni, người đứng đầu bộ phận AI và khí hậu tại Hugging Face, một công ty xây dựng các công cụ cho các ứng dụng AI, thường thảo luận về mức tiêu thụ năng lượng của AI.
Luccioni giải thích rằng mặc dù việc đào tạo các mô hình AI tốn nhiều năng lượng — ví dụ, đào tạo mô hình GPT-3 sử dụng khoảng 1.300 megawatt-giờ điện — nhưng thường chỉ diễn ra một lần. Tuy nhiên, giai đoạn suy luận, nơi các mô hình tạo ra phản hồi, có thể đòi hỏi nhiều năng lượng hơn do khối lượng truy vấn quá lớn.
Ví dụ, khi người dùng hỏi các mô hình AI như ChatGPT một câu hỏi, họ sẽ gửi yêu cầu đến trung tâm dữ liệu, nơi các bộ xử lý mạnh mẽ tạo ra phản hồi. Quá trình này, mặc dù nhanh, nhưng sử dụng nhiều năng lượng hơn khoảng 10 lần so với tìm kiếm thông thường trên Google.
“Các mô hình được sử dụng rất nhiều lần và thực sự tăng lên nhanh chóng”, Luccioni cho biết. Bà lưu ý rằng tùy thuộc vào quy mô của mô hình, 50 triệu đến 200 triệu truy vấn có thể tiêu tốn nhiều năng lượng như việc đào tạo chính mô hình.
“ChatGPT có 10 triệu người dùng mỗi ngày”, Luccioni cho biết. “Vì vậy, trong vòng 20 ngày, bạn đã đạt được lượng năng lượng 'khổng lồ' … được sử dụng để đào tạo thông qua việc triển khai mô hình”.
Những người tiêu thụ năng lượng lớn nhất là các công ty công nghệ lớn, được gọi là các công ty siêu quy mô, có khả năng mở rộng quy mô các nỗ lực AI một cách nhanh chóng với các dịch vụ đám mây của họ. Chỉ riêng Microsoft (MSFT), Alphabet, Meta (META) và Amazon dự kiến sẽ chi 189 tỷ đô la cho AI vào năm 2024.
Khi mức tiêu thụ năng lượng do AI thúc đẩy tăng lên, nó sẽ gây thêm áp lực lên các lưới điện vốn đã quá tải. Goldman Sachs dự đoán rằng đến năm 2030, nhu cầu điện của trung tâm dữ liệu toàn cầu sẽ tăng 160% và có thể chiếm 8% tổng nhu cầu điện ở Hoa Kỳ, tăng từ mức 3% vào năm 2022.
Căng thẳng này còn trầm trọng hơn do cơ sở hạ tầng cũ kỹ và xu hướng điện khí hóa ô tô và sản xuất tại Hoa Kỳ. Theo Bộ Năng lượng, 70% đường dây truyền tải của Hoa Kỳ đang gần đến cuối chu kỳ hoạt động thông thường từ 50 đến 80 năm, làm tăng nguy cơ mất điện và tấn công mạng.
Hơn nữa, các nguồn năng lượng tái tạo đang phải vật lộn để theo kịp.
Luccioni chỉ ra rằng các nhà điều hành lưới điện đang mở rộng việc sử dụng các nhà máy điện chạy bằng than để đáp ứng nhu cầu năng lượng ngày càng tăng, ngay cả khi sản lượng năng lượng tái tạo đang mở rộng.
AI đảo ngược các cam kết về tính bền vững của Big Tech
Microsoft và Google đã thừa nhận trong báo cáo phát triển bền vững của họ rằng AI đã cản trở khả năng đạt được các mục tiêu về khí hậu của họ. Ví dụ, lượng khí thải carbon của Microsoft đã tăng 29% kể từ năm 2020 do việc xây dựng trung tâm dữ liệu liên quan đến AI.
Tuy nhiên, năng lượng tái tạo vẫn là một phần quan trọng trong chiến lược của Big Tech, ngay cả khi nó không thể đáp ứng toàn bộ nhu cầu năng lượng của AI.
Vào tháng 5 năm 2024, Microsoft đã ký thỏa thuận mua điện doanh nghiệp lớn nhất từng được ghi nhận với công ty quản lý tài sản và bất động sản khổng lồ Brookfield để cung cấp hơn 10,5 gigawatt công suất điện tái tạo mới trên toàn cầu thông qua công nghệ tạo năng lượng gió, mặt trời và các công nghệ tạo năng lượng không phát thải carbon khác. Ngoài ra, công ty đã đầu tư mạnh vào các nỗ lực loại bỏ carbon để bù đắp cho mức phát thải kỷ lục của ngành là 8,2 triệu tấn.
Amazon cũng đã đầu tư đáng kể vào năng lượng tái tạo, định vị mình là công ty mua năng lượng tái tạo lớn nhất thế giới trong năm thứ tư liên tiếp. Danh mục đầu tư của công ty hiện bao gồm đủ năng lượng gió và mặt trời để cung cấp cho 7,2 triệu hộ gia đình tại Hoa Kỳ hàng năm.
Tuy nhiên, như phóng viên Ines Ferre của Yahoo Finance đã lưu ý (video ở trên), “Vấn đề với năng lượng tái tạo là vào một số thời điểm trong ngày, bạn cũng phải sử dụng năng lượng dự trữ vì bạn có thể không sử dụng năng lượng đó vào thời điểm đó trong ngày”.
Ngoài việc tìm nguồn năng lượng sạch hơn, Big Tech cũng đang đầu tư vào hiệu quả. Luccioni cho biết các công ty như Google hiện đang phát triển các chip dành riêng cho AI, chẳng hạn như Bộ xử lý Tensor (TPU), được tối ưu hóa cho các tác vụ AI thay vì sử dụng bộ xử lý đồ họa (GPU), được tạo ra cho công nghệ chơi game.
Nvidia tuyên bố rằng GPU Blackwell mới nhất của hãng có thể giảm mức sử dụng năng lượng và chi phí của mô hình AI tới 25 lần so với các phiên bản trước.
Để có cái nhìn thoáng qua về những gì sắp xảy ra với các công ty công nghệ không quản lý chi phí năng lượng, hãy xem Taiwan Semiconductor Manufacturing Company (TSM). TSMC sản xuất hơn 90% chip AI tiên tiến nhất thế giới và đã chứng kiến chi phí năng lượng tăng gấp đôi trong năm qua, làm giảm biên lợi nhuận của công ty gần một phần trăm, theo CFO Wendell Huang.
Các chuyên gia cho rằng tính minh bạch là chìa khóa để đánh giá chính xác hơn nhu cầu năng lượng và giảm chi phí trong tương lai.
“Chúng ta cần nhiều quy định hơn, đặc biệt là về tính minh bạch”, Luccioni, người đang làm việc trong một dự án xếp hạng sao năng lượng bằng AI nhằm giúp các nhà phát triển và người dùng lựa chọn các mô hình tiết kiệm năng lượng hơn bằng cách đánh giá mức tiêu thụ năng lượng của họ, cho biết.
Khi nói đến các ưu tiên của công ty công nghệ, hãy luôn theo dõi tiền bạc hoặc trong trường hợp này là các khoản đầu tư. Các công ty tiện ích và công ty công nghệ lớn dự kiến sẽ chi 1 nghìn tỷ đô la cho AI trong những năm tới.
Nhưng theo Luccioni, AI không chỉ là vấn đề mà còn có thể là một phần của giải pháp giải quyết tình trạng thiếu hụt năng lượng này.
“AI chắc chắn có thể là một phần của giải pháp”, Luccioni nói. “Ví dụ, biết khi nào một … đập thủy điện có thể cần sửa chữa, [and the] cũng giống như cơ sở hạ tầng cũ, như cáp, sửa chữa rò rỉ. Rất nhiều năng lượng thực sự bị mất trong quá trình truyền tải và trong quá trình lưu trữ. Vì vậy, AI có thể được sử dụng để dự đoán hoặc sửa chữa [it] theo thời gian thực.”
Nhấp vào đây để biết tin tức công nghệ mới nhất sẽ tác động đến thị trường chứng khoán
Đọc tin tức tài chính và kinh doanh mới nhất từ Yahoo Finance