Công ty khởi nghiệp chip AI Groq huy động được 640 triệu đô la để thách thức Nvidia

Groq, một công ty khởi nghiệp phát triển chip để chạy các mô hình AI tạo sinh nhanh hơn các bộ xử lý thông thường, cho biết vào thứ Hai rằng họ đã huy động được 640 triệu đô la trong vòng gọi vốn mới do Blackrock dẫn đầu. Neuberger Berman, Type One Ventures, Cisco, KDDI và Samsung Catalyst Fund cũng tham gia.

Khoản tiền này, đưa tổng số tiền Groq huy động được lên hơn 1 tỷ đô la và định giá công ty ở mức 2,8 tỷ đô la, là một chiến thắng lớn cho Groq, công ty được cho là ban đầu muốn huy động 300 triệu đô la với mức định giá thấp hơn một chút (2,5 tỷ đô la). Nó tăng gấp đôi mức định giá trước đó của Groq (khoảng 1 tỷ đô la) vào tháng 4 năm 2021, khi công ty huy động được 300 triệu đô la trong một vòng do Tiger Global Management và D1 Capital Partners dẫn đầu.

Nhà khoa học AI trưởng của Meta Yann LeCun sẽ làm cố vấn kỹ thuật cho Groq và Stuart Pann, cựu giám đốc kinh doanh đúc của Intel và cựu CIO tại HP, sẽ tham gia công ty khởi nghiệp này với tư cách là giám đốc điều hành, Groq cũng thông báo hôm nay. Việc bổ nhiệm LeCun có phần bất ngờ, xét đến khoản đầu tư của Meta vào chip AI của riêng mình — nhưng chắc chắn sẽ mang đến cho Groq một đồng minh mạnh mẽ trong một không gian khốc liệt.

Groq, nổi lên từ tình trạng ẩn danh vào năm 2016, đang tạo ra thứ mà họ gọi là công cụ suy luận LPU (bộ xử lý ngôn ngữ). Công ty tuyên bố LPU của họ có thể chạy các mô hình AI tạo sinh hiện có có kiến ​​trúc tương tự như ChatGPT và GPT-4o của OpenAI với tốc độ gấp 10 lần và năng lượng chỉ bằng một phần mười.

Jonathan Ross, CEO của Groq, nổi tiếng với việc giúp phát minh ra bộ xử lý tensor (TPU), chip tăng tốc AI tùy chỉnh của Google được sử dụng để đào tạo và chạy các mô hình. Ross đã hợp tác với Douglas Wightman, một doanh nhân và cựu kỹ sư tại phòng thí nghiệm X moonshot của công ty mẹ Google Alphabet, để đồng sáng lập Groq gần một thập kỷ trước.

Groq cung cấp một nền tảng phát triển được hỗ trợ bởi LPU có tên là GroqCloud cung cấp các mô hình “mở” như họ Llama 3.1 của Meta, Gemma của Google, Whisper của OpenAI và Mixtral của Mistral, cũng như một API cho phép khách hàng sử dụng chip của mình trong các phiên bản đám mây. (Groq cũng lưu trữ một sân chơi cho các chatbot được hỗ trợ bởi AI, GroqChat, được ra mắt vào cuối năm ngoái.) Tính đến tháng 7, GroqCloud đã có hơn 356.000 nhà phát triển; Groq cho biết một phần tiền thu được từ vòng này sẽ được sử dụng để mở rộng năng lực và thêm các mô hình và tính năng mới.

“Nhiều nhà phát triển này làm việc tại các doanh nghiệp lớn”, Stuart Pann, COO của Groq, nói với TechCrunch. “Theo ước tính của chúng tôi, hơn 75% Fortune 100 đều có đại diện”.

Cảm nhậnCảm nhận

Cận cảnh LPU của Groq, được thiết kế để tăng tốc một số khối lượng công việc AI.

Khi sự bùng nổ của AI tạo sinh vẫn tiếp tục, Groq phải đối mặt với sự cạnh tranh ngày càng tăng từ cả các đối thủ mới nổi trong lĩnh vực chip AI và Nvidia, một công ty đáng gờm trong lĩnh vực phần cứng AI.

Nvidia ước tính kiểm soát từ 70% đến 95% thị trường chip AI được sử dụng để đào tạo và triển khai các mô hình AI tạo sinh, và công ty này đang thực hiện các bước đi quyết liệt để duy trì vị thế thống lĩnh của mình.

Nvidia đã cam kết phát hành kiến ​​trúc chip AI mới mỗi năm, thay vì cách năm như trước đây. Và theo báo cáo, công ty đang thành lập một đơn vị kinh doanh mới tập trung vào việc thiết kế chip riêng cho các công ty điện toán đám mây và các công ty khác, bao gồm cả phần cứng AI.

Ngoài Nvidia, Groq còn cạnh tranh với Amazon, Google và Microsoft, tất cả đều cung cấp — hoặc sẽ sớm cung cấp — chip tùy chỉnh cho khối lượng công việc AI trên đám mây. Amazon có bộ xử lý Trainium, Inferentia và Graviton, có sẵn thông qua AWS; khách hàng của Google Cloud có thể sử dụng các TPU đã đề cập ở trên và theo thời gian, chip Axion của Google; và Microsoft gần đây đã ra mắt phiên bản Azure ở chế độ xem trước cho CPU Cobalt 100 của mình, với phiên bản Maia 100 AI Accelerator sẽ ra mắt trong vài tháng tới.

Groq cũng có thể cân nhắc Arm, Intel, AMD và một số lượng lớn các công ty khởi nghiệp đối thủ trong thị trường chip AI có thể đạt doanh số hàng năm là 400 tỷ đô la trong năm năm tới, theo một số nhà phân tích. Arm và AMD nói riêng có các doanh nghiệp chip AI đang phát triển mạnh mẽ, nhờ vào việc các nhà cung cấp đám mây tăng chi tiêu vốn để đáp ứng nhu cầu về năng lực cho AI tạo ra.

Vào cuối năm ngoái, D-Matrix đã huy động được 110 triệu đô la để thương mại hóa thứ mà họ mô tả là nền tảng tính toán suy luận đầu tiên thuộc loại này. Vào tháng 6, Etched đã thoát khỏi tình trạng ẩn danh với 120 triệu đô la cho một bộ xử lý được xây dựng riêng để tăng tốc kiến ​​trúc mô hình AI tạo ra thống trị hiện nay, máy biến áp. Masayoshi Son của SoftBank được cho là đang tìm cách huy động 100 tỷ đô la cho một liên doanh chip để cạnh tranh với Nvidia. Và OpenAI được cho là đang đàm phán với các công ty đầu tư để khởi động sáng kiến ​​sản xuất chip AI.

Để tạo chỗ đứng cho mình, Groq đang đầu tư mạnh vào hoạt động tiếp cận doanh nghiệp và chính phủ.

Vào tháng 3, Groq đã mua lại Definitive Intelligence, một công ty có trụ sở tại Palo Alto cung cấp một loạt các giải pháp AI hướng đến doanh nghiệp, để thành lập một đơn vị kinh doanh mới có tên là Groq Systems. Trong phạm vi hoạt động của Groq Systems là phục vụ các tổ chức, bao gồm các cơ quan chính phủ Hoa Kỳ và các quốc gia có chủ quyền, muốn thêm chip của Groq vào các trung tâm dữ liệu hiện có hoặc xây dựng các trung tâm dữ liệu mới bằng bộ xử lý Groq.

Gần đây hơn, Groq đã hợp tác với Carahsoft, một nhà thầu CNTT của chính phủ, để bán các giải pháp của mình cho các khách hàng thuộc khu vực công thông qua các đối tác bán lẻ của Carahsoft, và công ty khởi nghiệp này đã có thư bày tỏ ý định lắp đặt hàng chục nghìn LPU tại trung tâm dữ liệu Na Uy của công ty Earth Wind & Power đến từ châu Âu.

Groq cũng đang hợp tác với công ty tư vấn Aramco Digital của Ả Rập Xê Út để lắp đặt LPU tại các trung tâm dữ liệu trong tương lai ở Trung Đông.

Cùng lúc với việc thiết lập mối quan hệ với khách hàng, Groq có trụ sở tại Mountain View, California đang tiến tới thế hệ chip tiếp theo. Tháng 8 năm ngoái, công ty đã thông báo rằng họ sẽ ký hợp đồng với công ty bán dẫn Global Foundries để sản xuất LPU 4nm, dự kiến ​​sẽ mang lại hiệu suất và hiệu quả cao hơn so với chip 13nm thế hệ đầu tiên của Groq.

Groq cho biết họ có kế hoạch triển khai hơn 108.000 LPU vào cuối quý 1 năm 2025.

Bài viết này ban đầu xuất hiện trên TechCrunch tại https://techcrunch.com/2024/08/05/ai-chip-startup-groq-lands-640m-to-challenge-nvidia/

Nguồn Yahoo Finance

Facebook Comments Box

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *