Generative Artificial Intelligence (AI), trí tuệ nhân tạo tạo sinh, hay AI tạo sinh là một trong các kỹ thuật tạo ra trí thông minh nhân tạo (AI - Artificial Intelligence), trong đó máy tính sẽ sử dụng mô hình deep learning để tạo ra các nội dung từ yêu cầu của con người bao gồm âm thanh, mã, hình ảnh, văn bản, mô phỏng và video. Thông qua nhiều cuộc so sánh, thực tế cho thấy, với khả năng xử lý nhiều lệnh quan trọng cùng một lúc, mô hình AI đã có thể "vượt mặt" con người trong một số tác vụ nhất định.
Một cuộc chuyển đổi công nghệ khổng lồ đang diễn ra. Tuy nhiên, có một câu hỏi được đặt ra là “Vậy, ai sẽ là người hưởng lợi từ các nền tảng generative AI?”
Năm vừa qua, nhóm tác giả của a16z bao gồm Matt Bornstein, Guido Appenzeller, và Martin Casado đã gặp gỡ và trao đổi với hàng chục nhà sáng lập và người điều hành của các công ty lớn ứng dụng generative AI.
Có thể thấy, cho đến thời điểm hiện tại, các nhà cung cấp cơ sở hạ tầng đang là người dẫn đầu trên cuộc đua thu lợi nhuận từ thị trường này. Các công ty ứng dụng hàng đầu dù có mức tăng trưởng doanh thu phi mã, nhưng lại gặp những rào cản đến từ việc duy trì, khác biệt hoá sản phẩm và lợi nhuận gộp. Còn những công ty mở đường cho thị trường này - các công ty cung cấp mô hình generative AI thì vẫn chưa mở rộng tới quy mô thương mại.
Nói cách khác, các công ty tạo ra các mô hình generative AI và tích hợp AI vào các ứng dụng mới là những công ty tạo ra nhiều đóng góp nhất đối với thị trường, nhưng lại không thu lại được lợi nhuận. Hệ quả là việc dự đoán thị trường gần như rơi vào ngõ cụt.
Điều quan trọng nhất để tăng trưởng trong thị trường generative AI là phải biết cách tạo ra những giá trị khác biệt, độc quyền và hạn chế rủi ro các giá trị khác biệt đó bị sao chép. Những giá trị khác biệt đó sẽ giúp thay đổi cấu trúc thị trường (tức là sự phát triển của công ty theo chiều ngang so với chiều dọc - horizontal vs. vertical company) và các yếu tố thúc đẩy giá trị lâu dài (như biên lợi nhuận và tỷ lệ giữ chân - margins and retention). Nhóm tác giả cho biết, ngoài moats (các hào) truyền thống đang được sử dụng, việc xác định cấu trúc bảo vệ trong các stack (ngăn) đang gặp nhiều khó khăn.
Generative AI được kỳ vọng sẽ tạo nên tác động lớn đối với nền công nghiệp phần mềm. Bài viết này sẽ làm rõ sự năng động của thị trường generative AI và thảo luận về các mô hình kinh doanh của Generative AI.
Tech stack cấp cao: Cơ sở hạ tầng, mô hình và ứng dụng
Để hiểu các mô hình generative AI đang được tạo nên như thế nào, trước tiên chúng ta cần làm rõ về hệ thống công nghệ trong các mô hình này.
Stack - Ngăn xếp (là một cấu trúc dữ liệu trừu tượng hoạt động theo nguyên lý “vào sau ra trước”) có thể được chia thành ba lớp:
Applications - Các ứng dụng tích hợp mô hình generative AI vào sản phẩm, vận hành mô hình pipeline của riêng mình (ứng dụng đầu cuối end-to-end) hoặc dựa vào API (Giao diện chương trình ứng dụng - cho phép 2 thành phần phần mềm giao tiếp với nhau bằng một tập hợp các định nghĩa và giao thức) của bên thứ ba
Models - Các mô hình cung cấp các sản phẩm AI, được cung cấp dưới dạng API độc quyền hoặc dưới dạng checkpoint nguồn mở (điều này đòi hỏi phải có giải pháp lưu trữ)
Infrastructure - Các nhà cung cấp cơ sở hạ tầng (tức là nền tảng đám mây và nhà sản xuất phần cứng) thực hiện các tác vụ training và inference (đào tạo và suy luận) cho các mô hình generative AI
Các ứng dụng Generative AI đang bắt đầu tăng trưởng - Rào cản trong việc duy trì tỷ lệ giữ chân và khác biệt hoá sản phẩm
Trong các chu kỳ công nghệ trước đây, để xây dựng một công ty lớn độc lập, bạn phải tiếp cận được người dùng cuối cùng (end-customer), dù là người tiêu dùng cá nhân hay khách hàng B2B. Vì thế, các công ty ứng dụng công nghệ Generative AI hiện nay cũng kỳ vọng sẽ có thể cung cấp sản phẩm tới người dùng cuối cùng như các công ty tiền nhiệm.
Bên cạnh đó, các ứng dụng Generative AI được dự đoán sẽ có sự tăng trưởng đáng kinh ngạc bởi các đặc tính mới lạ và khả năng ứng dụng linh hoạt. Một số mô hình như image generation (tạo hình ảnh), copywriting (viết quảng cáo), code writing (viết code) đã đạt mức doanh thu trên 100 triệu USD hàng năm.
Tuy nhiên, chỉ xét đến sự tăng trưởng thôi là không đủ để đảm bảo sự phát triển đường dài cho các công ty phần mềm. Sự tăng trưởng phải mang lại lợi nhuận (tỷ suất lợi nhuận gộp cao - high gross margins) và sự gắn bó lâu dài (tỷ lệ giữ chân khách hàng cao - high retention) mới là yếu tố then chốt. Trong trường hợp không có sự khác biệt về mặt kỹ thuật, các ứng dụng B2B và B2C sẽ thúc đẩy tạo giá trị lâu dài với khách hàng thông qua network effect (hiệu ứng mạng), sở hữu dữ liệu hoặc khả năng quy chuẩn hoá các mô hình workflow (luồng công việc) phức tạp.
Thực tế, nếu đặt trong trường hợp của generative AI, giả thuyết nêu trên chưa hoàn toàn chính xác. Các công ty ứng dụng ghi nhận báo cáo có rất nhiều tỷ suất lợi nhuận gộp, một số trường hợp cao tới 90%, nhưng cũng có nhiều trường hợp chỉ tới 50-60%. Sự khác biệt này chủ yếu là do chi phí áp dụng mô hình. Mức tăng trưởng đầu phễu rất ấn tượng, tuy nhiên các chiến lược thu hút khách hàng hiện tại chưa thể dự đoán được khả năng tăng trưởng trong tương lai, do hiệu quả của paid acquisition (thu hút người dùng trả tiền) và retention bắt đầu sụt giảm.
Nhiều ứng dụng nhìn chung không có sự khác biệt, vì chúng dựa trên các mô hình AI cơ bản tương tự nhau và chưa tìm ra các network effect hoặc dữ liệu/ workflow rõ ràng mà các đối thủ cạnh tranh khó có thể sao chép.
Vì vậy, vẫn chưa thể chắc chắn rằng việc cung cấp ứng dụng cho người dùng cuối là con đường duy nhất hay tốt nhất để xây dựng một doanh nghiệp generative AI bền vững. Lợi nhuận sẽ sinh ra khi tính cạnh tranh và hiệu quả trong các mô hình ngôn ngữ tăng lên. Retention rate sẽ tăng lên khi “khách du lịch” AI rời khỏi thị trường. Và có một lập luận rằng các vertically integrated app (ứng dụng tích hợp theo chiều dọc) sẽ có lợi thế trong việc thúc đẩy sự khác biệt. Dù sao, đây đều là các giả thuyết và vẫn cần nhiều ví dụ thực tế cụ thể để chứng minh.
Một số yêu cầu đặt ra cho các công ty ứng dụng generative AI, bao gồm:
Tích hợp theo chiều dọc - Vertical integration (“mô hình + ứng dụng”): Sử dụng mô hình AI dưới dạng dịch vụ cho phép các nhà phát triển ứng dụng lặp lại các chương trình (thuật toán) nhanh chóng chỉ với một đội ngũ nhỏ và có thể thay đổi nhà cung cấp mô hình khi công nghệ tiến bộ. Mặt khác, một số nhà phát triển cho rằng sản phẩm chính ở đây là là mô hình và việc đào tạo (training) từ đầu là cách duy nhất để tạo ra sự khác biệt - tức là liên tục đào tạo trên dữ liệu sản phẩm độc quyền. Tuy nhiên quy trình sẽ yêu cầu nhiều vốn đổ vào hơn và một nhóm sản phẩm kém linh hoạt hơn.
Xây dựng thêm nhiều tính năng và ứng dụng: Các sản phẩm generative AI có nhiều loại khác nhau, như ứng dụng dành cho máy tính để bàn, ứng dụng di động, plugin Figma/Photoshop, tiện ích mở rộng của Chrome, thậm chí cả bot Discord. Các sản phẩm AI ngày càng dễ dàng được tích hợp vào công cụ nơi làm việc của con người, bởi về căn bản giao diện người dùng (UI) cũng chỉ là một text box (hộp văn bản). Vậy thì công ty nào trong số trên sẽ trở thành công ty độc quyền, công ty nào sẽ bị thâu tóm bởi các kẻ khổng lồ sở hữu nhiều dòng sản phẩm như Microsoft hay Google.
Quản lý qua chu kỳ bong bóng (hype cycle): Hiện vẫn chỉ là dự đoán về sự suy giảm tự nhiên trong các sản phẩm generative AI hiện tại, hay liệu sự quan tâm ngày càng tăng đối với generative AI sẽ giảm khi chu kỳ bong bóng lắng xuống. Những câu hỏi này có ý nghĩa quan trọng đối với các công ty phát triển ứng dụng, bao gồm: Thời điểm nào sẽ thích hợp để gọi vốn? Làm thế nào để đẩy mạnh đầu tư vào việc thu hút khách hàng? Đâu là phân khúc người dùng được ưu tiên? Khi nào thì đạt được product-market fit?
Các nhà cung cấp mô hình tạo ra Generative AI vẫn chưa đạt tới quy mô thương mại đủ lớn
Generative AI sẽ không tồn tại nếu không có công trình nghiên cứu và trình độ kỹ thuật cao được thực hiện bởi các ông lớn như Google, OpenAI và Stability. Thông qua các kỹ thuật mới lạ và những nỗ lực to lớn để mở rộng mô hình pipeline, các mô hình như LLM – large language (mô hình ngôn ngữ) và image-generation sẽ mang lại những lợi ích vô cùng lớn.
Tuy nhiên, doanh thu của các công ty này vẫn còn tương đối nhỏ so với giá trị của sản phẩm Generative AI và những kỳ vọng về mô hình này. Điển hình như mô hình tạo ảnh của Stable Diffusion, sản phẩm đã tạo ra sự phát triển bùng nổ trong cộng đồng người dùng, được hỗ trợ bởi một hệ sinh thái gồm user interfaces (giao diện người dùng), hosted offerings (dịch vụ lưu trữ) và các fine-tuning methods (phương pháp tinh chỉnh). Dù các checkpoint mang lại giá trị cao cho thị trường, nhưng lại được cung cấp miễn phí, và trở thành một nguyên lý cốt lõi trong hoạt động kinh doanh của Stability.
Trong các mô hình ngôn ngữ tự nhiên, OpenAI chiếm ưu thế hơn nhờ GPT-3/3.5 và ChatGPT. Trong lịch sử của công ty này, có tương đối ít các ứng dụng áp đảo thị trường được xây dựng bởi OpenAI. Tuy nhiên, các đối thủ lớn hiện nay như Stability hiện mới chỉ là một công ty còn trẻ chưa tập trung vào việc kiếm tiền. Do đó, OpenAI có tiềm năng tăng trưởng quy mô hơn nữa, và đặc biệt, việc tích hợp sản phẩm của OpenAI vào danh mục sản phẩm của Microsoft đã diễn ra suôn sẻ góp phần cho OpenAI chiếm được thị phần đáng kể trong tổng doanh thu của danh mục NLP kể cả khi nhiều ứng dụng vượt trội hơn xuất hiện.
Các mô hình vận hành dưới dạng open source (mã nguồn mở) có thể được lưu trữ bởi bất kỳ ai. Kể cả các công ty bên ngoài không chịu chi phí liên quan đến mô hình có mức quy mô lớn (lên đến hàng chục hoặc hàng trăm triệu USD). Và cũng không rõ rằng liệu có bất kỳ mã nguồn tương tự nào có thể duy trì lợi thế của chúng vô thời hạn hay không.
Ví dụ, chúng tôi bắt đầu thấy các LLM được xây dựng bởi Anthropic, Cohere và Character.ai,... đang tiến gần hơn đến các mức hiệu suất của OpenAI, được đào tạo trên các bộ dữ liệu tương tự (tức là Internet) và với các cấu trúc mô hình tương tự. Ví dụ về Stable Diffusion gợi ý rằng nếu các mô hình nguồn mở đạt đủ mức hiệu suất và hỗ trợ cộng đồng, thì các giải pháp thay thế độc quyền có thể khó cạnh tranh.
Cho đến nay, điểm rõ ràng nhất đối với các nhà cung cấp mô hình là việc thương mại hóa có khả năng gắn liền với việc lưu trữ. Nhu cầu về các API độc quyền (từ OpenAI) đang tăng lên nhanh chóng, cùng với đó dịch vụ lưu trữ cho các mô hình open source, như Hugging Face và Replicate, đang nổi lên và trở thành các hub giúp cho việc chia sẻ và tích hợp các mô hình trở nên dễ dàng hơn. Thậm chí còn hình thành nên một số network effect gián tiếp giữa nhà sản xuất mô hình và người tiêu dùng. Bên cạnh đó, nhiều giả thuyết khác cho rằng có thể kiếm tiền thông qua các thỏa thuận lưu trữ và tinh chỉnh với khách hàng doanh nghiệp.
Tuy nhiên, vẫn còn một số vấn đề khác mà các nhà cung cấp mô hình phải đối mặt:
Hàng hóa (Commoditization): Theo thời gian, các mô hình AI sẽ đều quy về hiệu suất. Lợi thế của những nhà phát triển sản phẩm đi đầu không dựa trên cấu trúc mô hình độc đáo, mà dựa trên yêu cầu vốn cao, dữ liệu tương tác độc quyền của sản phẩm và sự khan hiếm của nhân tài AI.
Mức độ rủi ro: Dựa vào công nghệ từ các nhà cung cấp là cách rất tốt để các công ty bắt đầu và phát triển hoạt động kinh doanh. Tuy nhiên, cũng có nhiều ý kiến khuyến khích doanh nghiệp tự phát triển mô hình của riêng mình khi đạt đến được mức độ tăng trưởng nhất định. Bởi nhiều nhà cung cấp mô hình đã có một số ứng dụng nổi bật mang về phần lớn doanh thu không trung thực trong việc cung cấp cho khách hàng. Vậy, điều gì sẽ xảy ra khi những khách hàng này chuyển sang tự phát triển AI cho chính công ty của mình?
Tiền có quan trọng không?: Generative AI có thể mang đến nhiều lợi ích nhưng cũng kèm theo nhiều hạn chế. Nhiều nhà cung cấp đã phải hoạt động dưới hình thức công ty cổ phần lợi ích khu vực (public benefit corporation), phát hành cổ phiếu lợi nhuận với số lượng giới hạn, hoặc nói cách khác là san sẻ lợi nhuận với cộng đồng trở thành một phần sứ mệnh của họ. Tuy điều này không cản trở tới việc gọi vốn, nhưng cũng có một cuộc tranh luận khác dấy lên rằng hầu hết các nhà cung cấp mô hình có thực sự muốn bắt lấy toàn bộ giá trị từ thị trường này hay không.
Các nhà cung cấp hạ tầng đang thu được lợi nhuận đáng kể
Các nhà cung cấp mô hình hay phòng thí nghiệm nghiên cứu đang chạy workload của các mô hình đào tạo (model training), các công ty lưu trữ thực hiện các tinh chỉnh hay các công ty ứng dụng đang thực hiện kết hợp cả hai thì đều phải thông qua GPU (hoặc TPU) được lưu trữ trên cloud để có thể ứng dụng generative AI. Do vậy, FLOPS (FLoating-point Operations Per Second - hiệu suất máy tính) chính là mạch máu của Generative AI. Lần đầu tiên sau một thời gian rất dài, tiến bộ của công nghệ điện toán đột phá nhất là giới hạn điện toán đại trà.
Và kết quả hiện tại đang cho thấy, dòng tiền của thị trường Generative AI đang chảy về các nhà cung cấp hạ tầng. Một ví dụ sơ bộ cho thấy: các công ty ứng dụng chi trung bình khoảng 20-40% doanh thu cho việc phân tích và tinh chỉnh theo ý khách hàng. Khoản tiền này thường được thanh toán trực tiếp cho các nhà cung cấp cloud cho các phiên bản điện toán hoặc cho các bên cung cấp thứ ba. Vậy nên các nhà cung cấp cloud có thể hưởng lợi từ 10 đến 20% tổng doanh thu từ generative AI.
Ngoài ra, các startups tạo các mô hình của riêng họ đã huy động được hàng tỷ USD vốn đầu tư mạo hiểm, phần lớn số tiền trong các lần gọi vốn đầu (lên tới 80-90%) được chi cho các nhà cung cấp cloud. Nhiều công ty public-tech đã chi hàng trăm triệu USD mỗi năm cho cho việc đào tạo mô hình (model training) cùng các nhà cung cấp cloud bên ngoài hay trực tiếp cùng với các nhà sản xuất phần cứng.
Đối với một thị trường còn non trẻ như generative AI, các công ty đã chi rất nhiều cho mặt kỹ thuật. Phần lớn trong số đó được chi cho Big 3 nền tảng đám mây, gồm: Amazon Web Services (AWS), Google Cloud Platform (GCP) và Microsoft Azure.
Các nhà cung cấp cloud này cùng nhau chi hơn 100 tỷ USD mỗi năm cho vốn đầu tư để đảm bảo họ có các nền tảng toàn diện, đáng tin cậy và cạnh tranh về chi phí nhất. Đặc biệt, trong generative AI, họ cũng được hưởng lợi từ các hạn chế về nguồn cung vì họ có quyền truy cập ưu tiên vào phần cứng khan hiếm (ví dụ: GPU Nvidia A100 và H100).
Tuy nhiên, chúng ta sẽ được chứng kiến một cuộc cạnh tranh khốc liệt. Điển hình như Oracle đã xâm nhập với chi phí đầu tư lớn và khuyến khích bán hàng. Và một số startup khác, như Coreweave và Lambda Labs, đã phát triển nhanh chóng với các giải pháp nhắm mục tiêu cụ thể đến các nhà phát triển mô hình lớn. Họ cạnh tranh về chi phí, tính khả dụng và hỗ trợ cá nhân hóa, đồng thời cũng hiển thị các bản trừu tượng hóa nguồn tài nguyên (resource abstraction) chi tiết hơn (tức là các bộ chứa), trong khi các cloud lớn chỉ cung cấp các phiên bản VM do giới hạn ảo hóa GPU.
Điều hành phần lớn workload của AI và cũng có lẽ là người chiến thắng lớn nhất trong toàn bộ lĩnh vực AI cho đến nay chính là Nvidia. Công ty ghi nhận 3,8 tỷ USD doanh thu GPU của trung tâm dữ liệu trong quý thứ ba của 2023, được sử dụng một phần đáng kể cho các trường hợp sử dụng generative AI. Họ đã dành hàng thập kỷ đầu tư vào kỹ thuật GPU để xây dựng những con hào (moats) vững chắc vào mô hình, một hệ sinh thái phần mềm mạnh mẽ và sử dụng rộng rãi trong cộng đồng. Trong thời điểm hiện tại, số lần GPU Nvidia được trích dẫn trong các tài liệu nghiên cứu nhiều hơn 90 lần so với các công ty khởi nghiệp chip AI hàng đầu cộng lại.
Bên cạnh Nvidia, cũng có nhiều lựa chọn phần cứng khác như Google Tensor Processing Units (TPU); GPU của AMD Instinct; chip AWS Inferentia và Trainium; và các công cụ AI accelerator của một số startups như Cerebras, Sambanova và Graphcore. Intel bước vào cuộc chơi generative AI khá muộn với chips Habana và GPU Ponte Vecchio. Nhưng cho đến nay, rất ít các loại chip mới này có thể chiếm được thị phần, duy chỉ có 2 trường hợp ngoại lệ đó là Google (có TPU thu được sức hút trong động đồng Stable Diffusion và trong một số giao dịch GCP lớn) và TSMC (công ty có thể sản xuất được tất cả các chips đã nêu ở trên, gồm cả GPU Nvidia).
Tóm lại, cơ sở hạ tầng của generative AI có thể đem lại nguồn lợi nhuận, cũng như có khả năng phát triển bền vững và hạn chế rủi ro sao chép công nghệ.
Dưới đây là một số vấn đề lớn đặt ra cho các công ty phát triển cơ sở hạ tầng bao gồm:
Sở hữu workloads không trạng thái (stateless): Hầu hết các workload AI đều không trạng thái (stateless), theo nghĩa là khai thác mô hình (model inference) không yêu cầu cơ sở dữ liệu hoặc bộ lưu trữ đính kèm (ngoại trừ đối với mô hình weights). Đồng nghĩa với việc, workloads AI có thể linh hoạt hơn trên các cloud so với workloads của ứng dụng truyền thống. Vậy trong bối cảnh hiện tại, vì GPU Nvidia dù được cung cấp bởi ai thì giá trị sử dụng cũng không có khác biệt, các nhà cung cấp cloud cần phải xây dựng lòng trung thành và hạn chế rủi ro khách hàng chuyển sang các lựa chọn rẻ hơn.
Tồn tại qua giai đoạn khan hiếm chip: Việc định giá cho các nhà cung cấp dịch vụ cloud và cho chính Nvidia là do sự khan hiếm của nguồn cung các GPUs. Giá niêm yết của A100 đã thực sự tăng kể từ khi ra mắt, đi ngược với xu hướng thông thường của phần cứng máy tính. Khi giải quyết được sự hạn chế nguồn cung này, thông qua việc tăng cường sản xuất và áp dụng các nền tảng phần cứng mới, điều này sẽ tác động như thế nào đến các nhà cung cấp cloud?
Thách thức mà công ty cung cấp cloud cần phải vượt qua: Có một kỳ vọng rằng các nền tảng đám mây chiều dọc (vertical cloud scaling) sẽ chiếm thị phần từ Big 3 với các dịch vụ chuyên biệt hơn. Cho đến nay, trong thị trường AI, các nền tảng cạnh tranh nhau thu hút khách hàng nhờ sự khác biệt kỹ thuật và sự hỗ trợ của Nvidia (khách hàng lớn nhất và cũng là đối thủ cạnh tranh mới nổi của các nhà cung cấp cloud hiện tại). Câu hỏi ở đây là trong dài hạn, liệu điều này có đủ để vượt qua lợi thế quy mô của Big 3?
Vậy… lợi nhuận của thị trường nằm ở đâu?
Tất nhiên, điều chưa thể khẳng định một cách chắc chắn. Nhưng dựa trên dữ liệu ban đầu mà chúng ta có về generative AI, kết hợp với kinh nghiệm của nhóm tác giả với các công ty AI/ML trước đó, chúng ta có dự đoán như sau.
Ngày nay, dường như không có bất kỳ con hào (moat) có hệ thống nào trong generative AI. Có thể là do các ứng dụng thiếu sự khác biệt rõ ràng trong sản phẩm vì chúng sử dụng các mô hình tương tự nhau; các mô hình sẽ không có sự khác biệt rõ ràng nào trong dài hạn bởi chúng được đào tạo (train) dựa theo bộ dữ liệu cùng với cấu trúc giống nhau, các nhà cung cấp cloud sẽ có các kỹ thuật gần như giống nhau do cùng chạy một GPU, và thậm chí các công ty phần cứng (hardware company) sản xuất chips cũng cùng sử dụng một FABS.
Tất nhiên, còn có những con hào (moats) tiêu chuẩn khác như scale moats, ecosystem moats, supply-chain moats, algorithmic moats, distribution moats, data pipeline moats. Nhưng không có con hào nào trong số này có xu hướng bền vững trong thời gian dài. Và còn quá sớm để biết liệu các hiệu ứng mạng trực tiếp, mạnh mẽ có đang chiếm ưu thế trong bất kỳ lớp nào của ngăn xếp (stack) hay không.
Quy mô tiềm năng của thị trường này rất khó nắm bắt vì vậy chúng tôi mong đợi nhiều, rất nhiều ở người chơi và sự cạnh tranh lành mạnh ở mọi cấp độ của hệ thống. Chúng tôi cũng kỳ vọng cả các công ty theo cả chiều ngang (horizontal) và chiều dọc (vertical) sẽ thành công, với cách tiếp cận tốt nhất do thị trường cuối cùng và người dùng cuối quyết định.
Ví dụ, nếu sự khác biệt chính trong sản phẩm cuối cùng là chính AI, thì có khả năng quá trình dọc hóa (vertical) (tức là kết hợp chặt chẽ ứng dụng hướng tới người dùng với mô hình do người dùng tự phát triển) sẽ thắng thế. Trong khi đó, nếu AI là một phần của bộ tính năng long-tail với kích cỡ lớn hơn, thì nhiều khả năng nó sẽ xảy ra theo chiều ngang (horizontal). Tất nhiên, chúng ta cũng sẽ thấy việc xây dựng nhiều hào (moats) truyền thống hơn theo thời gian – và thậm chí chúng ta có thể thấy các loại hào mới đang chiếm ưu thế.
Dù thế nào đi chăng nữa, một điều chúng ta có thể chắc chắn là generative AI sẽ tạo ra thay đổi lớn đối với thị trường. Tất cả chúng ta đều đang nghiên cứu sâu các quy tắc, có rất nhiều giá trị sẽ được khai phá và kết quả là bối cảnh công nghệ sẽ là một bức tranh hoàn toàn khác.
- Thứ trưởng Khoa học: Hệ sinh thái khởi nghiệp cần đi vào thực chất (21/06/2018)
- Thí điểm phương án nâng cao tính năng sáng tạo, khởi nghiệp tại KCNC Đà Nẵng (18/04/2018)
- Khởi nghiệp trong nông nghiệp: Lấy đổi mới, sáng tạo làm nền tảng (16/04/2018)
- Hiểu rõ khách hàng với mô hình AARRR cho Start Up (16/04/2018)
|