OpenAI là một phòng thí nghiệm nghiên cứu trí tuệ nhân tạo (AI) của Mỹ bao gồm tổ chức phi lợi nhuận OpenAI Incorporated (OpenAI Inc.) và công ty con hoạt động vì lợi nhuận OpenAI Limited Partnership (OpenAI LP).
OpenAI tiến hành nghiên cứu AI với mục đích đã tuyên bố là thúc đẩy và phát triển một AI thân thiện. Các hệ thống OpenAI chạy trên siêu máy tính mạnh thứ năm trên thế giới. Tổ chức được thành lập tại San Francisco vào năm 2015 bởi Sam Altman, Reid Hoffman, Jessica Livingston, Elon Musk, Ilya Sutskever, Peter Thiel và những người khác. Musk đã từ chức khỏi hội đồng quản trị vào năm 2018 nhưng vẫn là một nhà tài trợ. Microsoft đã cung cấp cho OpenAI LP khoản đầu tư 1 tỷ USD vào năm 2019 và khoản đầu tư thứ hai trong nhiều năm vào tháng 1 năm 2023, được báo cáo là 10 tỷ USD.
Trụ sở chính tại Tòa nhà Pioneer ở San Francisco | |
Ngành nghề | Trí tuệ nhân tạo |
---|---|
Thành lập | 10 tháng 12 năm 2015 |
Người sáng lập |
|
Trụ sở chính | Pioneer Building, San Francisco, California, US |
Thành viên chủ chốt |
|
Sản phẩm | |
Số nhân viên | 375 (tính đến tháng 1 năm 2023) |
Website | openai |
Vào tháng 12 năm 2015, Sam Altman, Greg Brockman, Reid Hoffman, Jessica Livingston, Peter Thiel, Elon Musk, Amazon Web Services (AWS), Infosys và YC Research đã công bố việc thành lập OpenAI và cam kết hơn 1 tỷ USD cho liên doanh. Tổ chức tuyên bố rằng họ sẽ "hợp tác tự do" với các tổ chức và nhà nghiên cứu khác bằng cách công khai các bằng sáng chế và nghiên cứu của mình. OpenAI có trụ sở chính tại Tòa nhà Pioneer ở Quận Mission, San Francisco.
Theo Wired, Brockman đã gặp Yoshua Bengio, một trong những "cha đẻ" của học sâu và lập danh sách "những nhà nghiên cứu giỏi nhất trong lĩnh vực này". Brockman có thể đã thuê chín người trong số họ làm nhân viên đầu tiên vào tháng 12 năm 2015. Vào năm 2016, OpenAI đã tiến hành trả lương cấp công ty (chứ không phải cấp phi lợi nhuận), nhưng không trả lương cho các nhà nghiên cứu AI theo mức tương đương với lương của Facebook hoặc Google.
Vào năm 2019, OpenAI đã chuyển đổi từ phi lợi nhuận sang vì lợi nhuận có "giới hạn", với lợi nhuận tối đa giới hạn ở mức gấp 100 lần bất kỳ khoản đầu tư nào. Theo OpenAI, mô hình lợi nhuận giới hạn cho phép OpenAI LP thu hút đầu tư hợp pháp từ các quỹ mạo hiểm và ngoài ra cấp cổ phần cho nhân viên trong công ty, mục tiêu là họ có thể nói "Tôi sẽ tham gia OpenAI, nhưng trong về lâu dài, điều đó sẽ không gây bất lợi cho chúng ta với tư cách là một gia đình." Nhiều nhà nghiên cứu hàng đầu làm việc cho Google Brain, DeepMind hoặc Facebook, cũng được công ty cấp cho quyền chọn mua cổ phiếu của công ty, việc mà khi làm cho một tổ chức phi lợi nhuận không thể có được. Trước khi chuyển đổi, việc tiết lộ công khai về thù lao của những nhân viên hàng đầu tại OpenAI là bắt buộc về mặt pháp lý.
Bài báo gốc về đào tạo tổng quát mô hình ngôn ngữ dựa theo giải thuật transformer được viết bởi Alec Radford và các đồng nghiệp của ông. Bài báo được đăng dưới dạng preprint trên trang web của OpenAI vào ngày 11 tháng 6 năm 2018. Bài báo cho thấy cách làm thế nào để một mô hình ngôn ngữ tổng quát có thể thu nhận kiến thức thế giới và xử lý các tham số phụ thuộc tầm xa bằng cách đào tạo trước trên một kho văn bản đa dạng với các đoạn văn bản liên tục kéo dài.
Generative Pre-training Transformer 2 (GPT-2) là một mô hình ngôn ngữ trên thuật toán transformer không giám sát và là phiên bản kế thừa từ mô hình GPT thử nghiệm đầu tiên của OpenAI. GPT-2 được công bố lần đầu tiên vào tháng 2 năm 2019, với các phiên bản trình diễn giới hạn ban đầu được phát hành ra công chúng. Phiên bản đầy đủ của GPT-2 đã không được phát hành ngay lập tức do lo ngại về khả năng sử dụng sai mục đích, bao gồm cả lo ngại các ứng dụng viết tin giả. Một số chuyên gia bày tỏ sự hoài nghi việc GPT-2 có thể là một mối đe dọa đáng kể.
Được mô tả lần đầu vào tháng 5 năm 2020, Generative Pre-training Transformer 3 (GPT-3) là một mô hình ngôn ngữ trên thuật toán transformer không giám sát thế hệ tiếp theo của GPT-2. OpenAI tuyên bố rằng phiên bản đầy đủ của mô hình GPT-3 có chứa đến 175 tỷ tham số, lớn hơn hai cấp so với 1,5 tỷ tham số trong phiên bản đầy đủ của GPT-2 (mặc dù các có các mô hình GPT-3 chỉ có 125 triệu tham số cũng đã được đào tạo).
Ngày 14 tháng 3 năm 2023, OpenAI đã công bố phát hành Generative Pre-training Transformer 4 (GPT-4), mô hình mới ngôn ngữ thế hệ mới có khả năng chấp nhận văn bản hoặc hình ảnh đầu vào. OpenAI thông báo rằng phiên bản mới sử dụng công nghệ cập nhật đã vượt qua kỳ thi mô phỏng của trường luật với số điểm nằm trong khoảng 10% người dự thi cao nhất; ngược lại, phiên bản trước, GPT-3.5, chỉ đạt điểm dưới 10%. GPT-4 cũng có thể đọc, phân tích hoặc tạo văn bản tối đa 25.000 từ và viết mã lập trình bằng tất cả các ngôn ngữ lập trình chính hiện nay.
Năm 2022, OpenAI phát hành mô hình Whisper, đây là mô hình nhận dạng giọng nói đa năng. Mô hình được đào tạo trên một tập dữ liệu lớn gồm nhiều âm thanh đa dạng và cũng là một mô hình đa tác vụ có thể thực hiện nhận dạng giọng nói đa ngôn ngữ cũng như dịch giọng nói và nhận dạng ngôn ngữ.
Được công bố vào giữa năm 2021, Codex là mô hình phát triển từ GPT-3 nhưng được đào tạo thêm về lập trình từ 54 triệu mã trong kho lưu trữ GitHub và trở thành mô hình AI hỗ trợ cho công cụ tự động hoàn thành mã GitHub Copilot.
Vào tháng 8 năm 2021, OpenAI phát hành một API thử nghiệm ở dạng beta riêng tư. Theo OpenAI, mô hình này có thể tạo mã hoạt động bằng hơn chục ngôn ngữ lập trình, hiệu quả nhất là bằng Python. Tuy nhiên, sau khi hoạt động, có một số vấn đề về trục trặc, lỗi thiết kế và lỗ hổng bảo mật đã được chỉ ra. GitHub Copilot bị cáo buộc tạo ra mã nguồn đã có bản quyền nhưng không có sự ghi nhận tác giả hoặc giấy phép. OpenAI đã thông báo rằng họ sẽ ngừng hỗ trợ Codex API bắt đầu từ ngày 23 tháng 3 năm 2023.
This article uses material from the Wikipedia Tiếng Việt article OpenAI, which is released under the Creative Commons Attribution-ShareAlike 3.0 license ("CC BY-SA 3.0"); additional terms may apply (view authors). Nội dung được phát hành theo CC BY-SA 4.0, ngoại trừ khi có ghi chú khác. Images, videos and audio are available under their respective licenses.
®Wikipedia is a registered trademark of the Wiki Foundation, Inc. Wiki Tiếng Việt (DUHOCTRUNGQUOC.VN) is an independent company and has no affiliation with Wiki Foundation.