2025-07-16 Top Stories #
- Những người theo chủ nghĩa tất yếu LLM tin rằng tương lai là không thể tránh khỏi, nên các cuộc thảo luận nên tập trung vào việc thích ứng thay vì nghi ngờ, nhưng cách suy nghĩ của họ có thể hạn chế các cuộc thảo luận thực sự.
- MLX của Apple thêm hỗ trợ CUDA, cho phép các nhà phát triển phát triển trên thiết bị Apple và triển khai trên phần cứng NVIDIA, thúc đẩy hệ sinh thái đa nền tảng.
- Cognition mua lại Windsurf, tích hợp khả năng IDE của mình, thúc đẩy sự phát triển của tương lai kỹ thuật phần mềm.
- LIGO phát hiện vụ sáp nhập lỗ đen lớn nhất từ trước đến nay, thách thức các mô hình tiến hóa sao tiêu chuẩn.
- Blender Studio ra mắt trò chơi tương tác giải trí “Dog Walk”, thể hiện phong cách nghệ thuật và khả năng phát triển mã nguồn mở của mình.
- Robot Shoggoth Mini kết hợp GPT-4o và học tăng cường, khám phá mối quan hệ giữa tính biểu cảm của robot và tương tác của con người.
- Calvin French-Owen suy ngẫm về văn hóa, mục tiêu và nỗ lực nội bộ của OpenAI, nhấn mạnh sứ mệnh trí tuệ nhân tạo tổng quát (AGI) của họ.
- Blender 4.5 LTS được phát hành, với tư cách là một công cụ sáng tạo 3D mã nguồn mở, tiếp tục thúc đẩy sự kết hợp giữa nghệ thuật và công nghệ.
- Đề xuất cập nhật giấy phép PHP nhằm mục đích đơn giản hóa các vấn đề về giấy phép, áp dụng giấy phép BSD sửa đổi để tăng cường khả năng tương thích và quyền của người dùng.
- Nghiên cứu chỉ ra rằng hiệu suất của LLM giảm khi xử lý đầu vào dài, cần được tối ưu hóa thông qua kỹ thuật ngữ cảnh (context engineering) và phương pháp RAG.
Tính tất yếu của LLM #
LLM Inevitabilism
https://tomrenner.com/posts/llm-inevitabilism/
Bài viết này được viết bởi Tom Renner, khám phá khái niệm “Chủ nghĩa tất yếu” (Inevitabilism), đặc biệt là trong ứng dụng của nó trong tiến bộ công nghệ, đặc biệt là lĩnh vực trí tuệ nhân tạo (AI). Tác giả bắt đầu bằng cách chia sẻ kinh nghiệm tranh luận với những người giỏi tranh biện, chỉ ra rằng trong những cuộc tranh luận như vậy, người ta thường cảm thấy choáng ngợp bởi những quan điểm bất ngờ của đối phương, cuối cùng mất đi sự tự tin và chủ đề chính của luận điểm.
Bài viết đề cập đến việc cuốn sách “Thời đại của chủ nghĩa tư bản giám sát” của Shoshana Zuboff đã có ảnh hưởng sâu sắc đến tác giả, đặc biệt là giới thiệu thuật ngữ “Chủ nghĩa tất yếu”. Những người theo chủ nghĩa tất yếu tin rằng tương lai mà họ thấy là không thể tránh khỏi, vì vậy cách phản ứng hợp lý duy nhất là chuẩn bị cho tương lai đó. Quan điểm này cung cấp một khuôn khổ cụ thể cho cuộc thảo luận, khiến những người không đồng ý bị coi là “phớt lờ thực tế”, và cuộc thảo luận thực sự có ý nghĩa chỉ giới hạn ở những người đã chấp nhận tiền đề này.
Tác giả trích dẫn một số phát biểu của những nhân vật nổi tiếng trong giới công nghệ, chẳng hạn như Mark Zuckerberg, Andrew Ng và Ginni Rometty, cho thấy cách họ hướng chủ đề đến “làm thế nào để thích ứng với một tương lai không thể tránh khỏi” thay vì “bạn muốn một tương lai như thế nào”. Sự dẫn dắt này cũng mang tính đe dọa, ngụ ý rằng nếu không tuân theo xu hướng này, người ta sẽ phải đối mặt với những thế lực to lớn không thể hiểu được.
Mặc dù tác giả không chắc chắn rằng các mô hình ngôn ngữ lớn (LLMs) là hướng đi của tương lai, càng không chắc chắn rằng đó là tương lai mà anh ấy mong muốn, nhưng anh ấy tin chắc rằng chúng ta có quyền lựa chọn về tương lai và nên tích cực suy nghĩ và đấu tranh cho tương lai mà chúng ta muốn. Tác giả kêu gọi độc giả đừng để chủ nghĩa tất yếu đóng khung cuộc thảo luận, mà nên tập trung vào tương lai mà mình mong muốn và đấu tranh cho nó.
HN | Độ nóng: 1477 điểm | 1386 bình luận | Tác giả: SwoopsFromAbove #
https://news.ycombinator.com/item?id=44567857
- Các LLM (Mô hình ngôn ngữ lớn) rất khó ngăn chặn với tư cách là một công nghệ mới, nhưng hiện tại chưa tìm thấy mô hình kinh doanh hợp lý, phần lớn người tiêu dùng sử dụng ở cấp độ miễn phí, đầu tư vào ngành bắt đầu thu hẹp, khả năng của mô hình có xu hướng ổn định và chất lượng nội dung đầu ra ở mức trung bình.
- Nhiều công nghệ tưởng chừng như không thể tránh khỏi đã rút lui vì thiếu lợi nhuận kinh doanh tương ứng, các LLM có thể cuối cùng chỉ là các trường hợp sử dụng cụ thể, không thu hút sự chú ý như những nỗ lực không được ưa chuộng phổ biến hiện nay.
- Ví dụ về máy bay chở khách siêu thanh cho thấy, ngay cả khi công nghệ có vẻ không thể tránh khỏi, nó vẫn có thể suy giảm do các vấn đề không thể giải quyết và thiếu mô hình lợi nhuận.
- Máy tính và Internet cũng có thể tuân theo một quỹ đạo tương tự, có thể đã đạt đến đỉnh điểm, những gì còn lại chỉ là tối ưu hóa chi phí, hiệu quả, phân phối hoặc sự tiện lợi.
- Ngay cả trong những năm 70, người ta cũng nhận ra rằng du lịch siêu thanh có những vấn đề cụ thể và không có giải pháp, trong khi các LLM ngày nay không có được sự đồng thuận như vậy.
- Ví dụ về các tòa nhà chọc trời cho thấy, ngay cả khi không có vấn đề đồng thuận, sự tăng trưởng công nghệ vẫn có thể dừng lại.
- Các LLM có thể không tiến bộ, nhưng không phải vì những lý do đồng thuận tồn tại ngày nay, chúng có thể phục vụ cho việc xây dựng những thứ mang tính cách mạng hơn.
- Sự phản đối của mọi người đối với AI dường như rất kỳ lạ, mặc dù tương lai phản địa đàng tiềm ẩn là điều mọi người không muốn thấy, nhưng những phiền toái hàng ngày dường như khó hiểu.
- Vấn đề của du lịch siêu thanh là giảm phạm vi sai sót có thể chấp nhận được, điều này gây lo ngại và không thể chấp nhận được đối với các kỹ sư.
- Các kỹ sư thiết kế có tính đến nhiều khả năng khác nhau, ngay cả những cây cầu rất chắc chắn cũng không được thiết kế để chịu được mọi tình huống có thể xảy ra.
- Vấn đề chính của các LLM là không thể xác minh đầu ra, do đó không tạo ra giá trị lâu dài, giống như một công cụ tìm kiếm tốt hơn một chút.
- Các LLM dạy máy tính rằng ngay cả khi sai, chỉ cần thuyết phục là được, điều này hữu ích cho tuyên truyền hoặc các khía cạnh xấu của thương mại, nhưng không hữu ích cho giao tiếp thực tế.
- Không ai có thể tìm ra cách bán các LLM, vì rất ít người mua chúng.
- OpenAI có 20 triệu người dùng ChatGPT trả phí, với doanh thu dự kiến hơn 12 tỷ đô la, cho thấy việc bán hàng không phải là không thể.
- 20 triệu người dùng trả phí có tỷ lệ chuyển đổi cực kỳ thấp so với 800 triệu hoặc 1 tỷ người dùng hoạt động hàng tháng được tuyên bố, đặc biệt là khi xem xét đánh giá cực kỳ cao của ngành và giới truyền thông về công nghệ này.
- Nhiều chức năng có thể được sử dụng miễn phí, các nhà cung cấp khác cũng cung cấp các giải pháp thay thế miễn phí, tỷ lệ miễn phí/trả phí của dịch vụ LLM tương tự như YouTube.
- Nếu tất cả các dịch vụ LLM không còn cung cấp miễn phí nữa, số lượng người dùng trả phí sẽ là bao nhiêu?
MLX của Apple bổ sung hỗ trợ CUDA #
Apple’s MLX adding CUDA support
https://github.com/ml-explore/mlx/pull/1983
Trang web này là trang của một dự án GitHub, chủ yếu thảo luận về tiến độ công việc liên quan đến việc thêm CUDA backend cho dự án MLX. Dưới đây là bản tóm tắt chi tiết nội dung trang web bằng tiếng Việt:
Thành viên dự án zcbenz đã khởi tạo một pull request (PR) có tên “[WIP] CUDA backend”, nhằm mục đích thêm hỗ trợ CUDA backend cho dự án MLX. Hiện tại công việc này vẫn đang được tiến hành, chỉ có một số ít chức năng đã được triển khai, nhưng người dùng đã có thể chạy các ví dụ hướng dẫn. zcbenz cung cấp các hướng dẫn để xây dựng và kiểm thử CUDA backend, bao gồm sử dụng cmake để xây dựng và cách chạy các chương trình ví dụ. Anh ấy cũng đề cập rằng PR này chủ yếu được kiểm tra trên hệ thống Ubuntu 22.04, phối hợp với CUDA 11.6, về mặt lý thuyết các môi trường khác cũng có thể hoạt động, nhưng chưa được kiểm tra.
zcbenz giải thích hai lý do chính để thêm CUDA backend: thứ nhất, CUDA hỗ trợ unified memory, bao gồm hỗ trợ phần cứng trên một số thiết bị và hỗ trợ phần mềm cho các thiết bị không có unified memory phần cứng; thứ hai, phần cứng NVIDIA được sử dụng rộng rãi trong học thuật và tính toán quy mô lớn, có thể viết/kiểm tra mã cục bộ trên máy Mac, sau đó triển khai trên siêu máy tính, điều này sẽ mang lại trải nghiệm phát triển tốt. Anh ấy cũng đề cập rằng công việc này được tài trợ bởi Apple.
Trang web cũng ghi lại thao tác force-push của zcbenz đối với nhánh CUDA, và câu hỏi của radudiaconu0 về việc liệu có thể thêm hỗ trợ ROCm dựa trên pull request CUDA của zcbenz hay không, zcbenz đồng ý với điều này và đề nghị quyết định cách ROCm backend sẽ cùng tồn tại với CUDA backend trước khi bắt đầu.
awni bày tỏ sự đánh giá cao đối với công việc của zcbenz và đề xuất hai phương án để tích hợp hỗ trợ CUDA vào dự án MLX: một là sau khi các chức năng CUDA đã sẵn sàng, hãy thêm nó vào MLX như một nhánh riêng biệt, sau đó gửi PR đến nhánh đó; hai là hợp nhất cơ sở hạ tầng hỗ trợ CUDA trước, sau đó gửi dần các PR gia tăng hơn. awni cho biết anh ấy thích phương án thứ hai hơn, nhưng cũng sẵn sàng lắng nghe các đề xuất khác.
Cuối cùng, angeloskath cũng bày tỏ sự đánh giá cao đối với tiến độ và đưa ra quan điểm của mình, anh ấy cho rằng việc hợp nhất thường xuyên (về cơ bản là phương án thứ hai) là cách tốt hơn. Anh ấy cũng đề nghị chạy các bài kiểm tra CUDA trong continuous integration (CI), để ngay cả khi không sử dụng CUDA, người ta vẫn có thể biết khi nào có vấn đề xảy ra. Nếu không, nhánh CUDA sẽ phải liên tục rebase trên nhánh chính, điều này có thể gây khó chịu.
HN | Độ nóng: 528 điểm | 183 bình luận | Tác giả: nsagent #
https://news.ycombinator.com/item?id=44565668
- Việc MLX của Apple thêm hỗ trợ CUDA có nghĩa là các nhà phát triển có thể phát triển trên thiết bị Apple và triển khai trên các hệ thống hiệu năng cao của NVIDIA
- Apple không thể tự mình triển khai CUDA vì vấn đề bản quyền, vì vậy họ đã lùi một bước, cho phép các nhà phát triển phát triển cho MLX, đồng thời nhận được sự hỗ trợ phần cứng của NVIDIA
- Có ý kiến cho rằng, phán quyết của Tòa án Tối cao Hoa Kỳ trong vụ Google v. Oracle cung cấp một tiền lệ pháp lý cho việc triển khai lại CUDA API
- AMD cũng đã triển khai ROCM/HIP, như một cách triển khai lại CUDA, cho GPU của họ
- Nếu đủ số lượng nhà phát triển sử dụng MLX, Apple có thể phát hành GPU trung tâm dữ liệu hỗ trợ MLX trong tương lai
- Việc Apple phát hành GPU trung tâm dữ liệu có thể thúc đẩy các nhà phát triển sử dụng MLX
- Apple đã nhiều lần thể hiện sự thờ ơ đối với các nhà phát triển, vì vậy việc các nhà phát triển có sử dụng MLX hay không là tùy thuộc vào họ
- Mức độ suy giảm hiệu năng của MLX so với chương trình CUDA gốc là như thế nào
- Có người cho rằng phần cứng của NVIDIA hiện là nhanh nhất trên thị trường
- So với phần cứng của Apple, phần cứng của NVIDIA được coi là hiệu năng cao
- Có người chỉ ra rằng CUDA không phải là API, cũng không phải là thư viện, mà là một hệ sinh thái các ngôn ngữ lập trình, thư viện và công cụ phát triển do NVIDIA cung cấp
- Trình biên dịch cốt lõi là điều mọi người quan tâm, chứ không phải công cụ phát triển
- Thách thức của việc triển khai lại CUDA là theo kịp API không ngừng phát triển và việc triển khai mã nguồn đóng, đòi hỏi rất nhiều nỗ lực
- Mọi người muốn sử dụng các API cấp cao hơn, các API này có nhiều backend như CUDA backend, nhưng việc sử dụng trực tiếp CUDA là để tận dụng tối đa hiệu năng từ phần cứng
- Toàn bộ hệ sinh thái chưa trưởng thành, nhiều nhà sản xuất đang thực hiện các bản demo công nghệ của riêng họ, hy vọng sao chép thành công của NVIDIA hoặc ít nhất là chiếm một phần thị trường, thay vì cùng nhau xây dựng một ngăn xếp CL+SPIRV mở mạnh mẽ
- Phần cứng của nhiều nhà sản xuất có vấn đề, chẳng hạn như xử lý lỗi không đúng cách, khóa phần cứng, cần khởi động lại, điều này sẽ tiêu tốn thời gian của kỹ sư trong quá trình phát triển mà không mang lại kết quả
- Ngay cả khi phần cứng chạy, cũng cần phải mất vài tuần trong vòng phản hồi để cố gắng tìm ra lý do tại sao báo cáo mức sử dụng GPU chỉ là 50% (nếu may mắn)
Cognition (Devin AI) mua lại Windsurf #
Cognition (Devin AI) to Acquire Windsurf
https://cognition.ai/blog/windsurf
Tin tức về việc Cognition mua lại Windsurf thật phấn khởi. Cognition đã ký một thỏa thuận cuối cùng để mua lại Windsurf, một môi trường phát triển tích hợp (IDE) mang tính đại diện. Việc mua lại này bao gồm quyền sở hữu trí tuệ, sản phẩm, nhãn hiệu và thương hiệu của Windsurf, cũng như một hoạt động kinh doanh mạnh mẽ. Quan trọng nhất, nó còn bao gồm những nhân tài đẳng cấp thế giới của Windsurf, những người giỏi nhất trong ngành của chúng ta, và chúng tôi rất vinh dự được chào đón họ vào đội ngũ của mình.
Trong thời gian ngắn, nhóm Windsurf sẽ tiếp tục hoạt động như trước đây, và chúng tôi sẽ tiếp tục tập trung vào việc tăng tốc công việc kỹ thuật của bạn thông qua Devin. Trong những tháng tới, chúng tôi sẽ đầu tư mạnh mẽ để tích hợp các khả năng và quyền sở hữu trí tuệ độc đáo của Windsurf vào các sản phẩm của Cognition. Thông qua thỏa thuận này, chúng tôi càng củng cố thêm sứ mệnh xây dựng tương lai của kỹ thuật phần mềm.
Dưới đây là bản tóm tắt bức thư mà Scott Wu đã gửi cho nhóm Cognition:
Nhóm, như chúng ta đã thảo luận trong cuộc họp toàn thể, chúng ta đang mua lại Windsurf. Bây giờ chúng ta đã ký thỏa thuận cuối cùng, chúng tôi vô cùng phấn khích. Dưới đây là bản tóm tắt về thỏa thuận, và xin nhắc lại, thông tin này là tuyệt mật cho đến 11 giờ sáng theo giờ PT, sau đó thông tin này sẽ được công khai sau cuộc họp toàn thể của Windsurf. Nhóm Windsurf nên được Jeff và tôi thông báo tin này một cách phù hợp, vì vậy xin vui lòng giữ im lặng trong thời gian này để tôn trọng các đồng nghiệp mới của chúng ta.
Vậy, thỏa thuận này thực sự là gì? Thông qua việc mua lại này, Cognition sẽ sở hữu sản phẩm được yêu thích và hoạt động kinh doanh mạnh mẽ của Windsurf:
- Windsurf IDE, hiện có toàn quyền truy cập vào các mô hình Claude mới nhất.
- Quyền sở hữu trí tuệ của Windsurf, bao gồm nhãn hiệu và thương hiệu mạnh mẽ mà họ đã xây dựng.
- 82 triệu đô la doanh thu định kỳ hàng năm (ARR) và hoạt động kinh doanh tăng trưởng nhanh chóng, với ARR của doanh nghiệp tăng gấp đôi mỗi quý.
- Cơ sở người dùng bao gồm hơn 350 khách hàng doanh nghiệp và hàng trăm nghìn người dùng hoạt động hàng ngày.
Quan trọng nhất, chúng tôi đang chào đón một số người ấn tượng nhất trong ngành của chúng ta, bao gồm các nhóm GTM, kỹ thuật và sản phẩm đẳng cấp thế giới.
Chúng tôi luôn ngưỡng mộ nhóm Windsurf và mọi thứ họ đã xây dựng. Khi xây dựng thỏa thuận này, một trong những ưu tiên hàng đầu của tôi là tôn trọng tài năng, sự chăm chỉ và thành tích của họ, điều đã giúp Windsurf trở thành một hoạt động kinh doanh tuyệt vời như ngày nay. Để làm được điều này, Jeff và tôi đã cùng nhau làm việc để đảm bảo rằng mọi nhân viên đều được tôn trọng và chăm sóc chu đáo trong thỏa thuận này. Cụ thể:
- Tất cả nhân viên của Windsurf sẽ được tham gia tài chính vào thỏa thuận này.
- Tất cả nhân viên của Windsurf sẽ từ bỏ thời gian làm việc đã tích lũy cho đến nay.
- Tất cả nhân viên của Windsurf sẽ được hưởng quyền lợi đầy đủ và nhanh chóng cho thời gian làm việc đã tích lũy cho đến nay.
Mỗi nhân viên mới gia nhập Cognition sẽ được đối xử giống như các nhân viên hiện tại: minh bạch, công bằng và tôn trọng sâu sắc khả năng và giá trị của họ. Kể từ hôm nay, những nỗ lực của chúng ta sẽ là một đội thống nhất và gắn bó. Chúng ta chỉ có một con thuyền, và tất cả chúng ta đều ở trên con thuyền này.
Điều này có nghĩa là đối với Cognition, chúng ta sẽ có thể thúc đẩy sứ mệnh xây dựng tương lai của kỹ thuật phần mềm nhanh hơn. Như các bạn đã biết, trong vài tháng qua, chúng ta đã có được động lực và sự chấp nhận mạnh mẽ. Đối với nhiều nhóm kỹ thuật doanh nghiệp, Devin đã là một người đóng góp hàng đầu. Khi cơ sở khách hàng của chúng ta tiếp tục tăng trưởng, rõ ràng rằng việc kết hợp sự chấp nhận nhanh chóng của Devin như một đại lý hoàn toàn tự chủ hàng đầu với sản phẩm IDE và bộ máy GTM quy mô của Windsurf sẽ là một sự mở khóa lớn.
Chưa bao giờ có một thời điểm thú vị hơn để xây dựng. Trong cuộc đời của chúng ta, các kỹ sư sẽ chuyển từ thợ xây thành kiến trúc sư, tập trung vào sự sáng tạo trong việc thiết kế các hệ thống, thay vì lao động thủ công để lắp ráp chúng.
Có thể ở vị trí này là một đặc ân, và những nỗ lực của các bạn đã đưa chúng ta đến đây. Vẫn còn rất nhiều việc phải làm phía trước, công việc sẽ không dễ dàng, nhưng hôm nay là một chiến thắng lớn cho tất cả chúng ta trong trò chơi có tổng bằng dương này. Cảm ơn các bạn đã cùng nhau tham gia hành trình này. Bây giờ chúng ta hãy chuẩn bị chào đón nồng nhiệt các đồng nghiệp mới của chúng ta. Scott.
HN | Độ nóng: 489 điểm | 410 bình luận | Tác giả: alazsengul #
https://news.ycombinator.com/item?id=44563324
- Sự hỗn loạn xung quanh các giao dịch này khiến mọi người tin rằng chúng ta có thể đang ở trong một bong bóng khổng lồ tách rời khỏi các yếu tố cơ bản, và bong bóng này sớm muộn gì cũng sẽ vỡ.
- ARR của Anthropic tăng từ 1 tỷ lên 4 tỷ cho thấy thực sự có một giá trị nào đó.
- “Bong bóng sớm muộn gì cũng sẽ vỡ” và “thực sự có một giá trị nào đó” không mâu thuẫn, chúng thường xuất hiện cùng nhau.
- Tình hình hiện tại tương tự như thời kỳ bong bóng/.com vỡ, khi công nghệ đã thay đổi đáng kể xã hội toàn cầu, nhưng cũng mang đến những trường hợp thất bại như Pets.com và Webvan.
- Ý tưởng của Webvan đã đi trước thời đại khoảng 15 năm, và bây giờ đã có những dịch vụ thành công như InstaCart và DoorDash.
- Pets.com về cơ bản là Chewy, một nhà bán lẻ trực tuyến các sản phẩm cho thú cưng thành công.
- Giá trị vốn hóa thị trường của Amazon vào năm 1999 còn cao hơn năm 2009.
- Anthropic là một trường hợp đáng chú ý, vì nó chứng minh rằng thành công không chỉ liên quan đến quy mô.
- “Giả thuyết quy mô” hiện là câu chuyện huy động vốn dễ dàng và nhanh chóng nhất, vì vậy nó sẽ bị khai thác cho đến khi bị phá vỡ bởi một tiến bộ tiếp theo.
- Bản thân Cursor dường như không mang lại nhiều giá trị, nó giống như một trình bao bọc API.
- Giá trị của nhiều sản phẩm và dịch vụ “AI” vẫn chưa được trả lời, đặc biệt là khi chúng không sở hữu LLM cơ bản.
- Cursor cung cấp môi trường phát triển tốt hơn Copilot, mặc dù nó thường xuyên bị lỗi.
- Kiro của Amazon hoạt động xuất sắc trong việc lập kế hoạch, vẽ sơ đồ và chia nhỏ các nhiệm vụ, thậm chí còn tạo ra những thứ hữu ích cho tôi mà không cần viết bất kỳ mã làm việc nào.
- Các sản phẩm được xây dựng dựa trên các công ty AI cơ bản về mặt lý thuyết có thể đạt được tỷ suất lợi nhuận cao hơn, vì vậy các nhà đầu tư mạo hiểm đang đổ xô vào để tìm ra công ty nào có thể leo lên chuỗi giá trị một cách thành công.
LIGO phát hiện vụ sáp nhập lỗ đen lớn nhất từ trước đến nay #
LIGO detects most massive black hole merger to date
https://www.caltech.edu/about/news/ligo-detects-most-massive-black-hole-merger-to-date
LIGO Phát Hiện Vụ Sáp Nhập Hố Đen Lớn Nhất Từ Trước Đến Nay

Sự hợp tác LIGO-Virgo-KAGRA (LVK) đã sử dụng Đài quan sát LIGO do Quỹ Khoa học Quốc gia Hoa Kỳ tài trợ để phát hiện vụ sáp nhập hố đen lớn nhất từng được quan sát bằng sóng hấp dẫn. Vụ sáp nhập mạnh mẽ này đã tạo ra một hố đen cuối cùng với khối lượng gấp khoảng 225 lần khối lượng Mặt Trời. Tín hiệu được chỉ định là GW231123, được phát hiện vào ngày 23 tháng 11 năm 2023 trong lần quan sát thứ tư của mạng lưới LVK. LIGO, viết tắt của Đài quan sát Sóng hấp dẫn Giao thoa kế Laser, lần đầu tiên phát hiện trực tiếp sóng hấp dẫn vào năm 2015, đó là những gợn sóng trong không gian-thời gian. Trong trường hợp đó, những gợn sóng đến từ một vụ sáp nhập hố đen, cuối cùng tạo thành một hố đen có khối lượng gấp 62 lần khối lượng Mặt Trời. Tín hiệu được phát hiện đồng thời bởi hai máy dò LIGO đặt tại Livingston, Louisiana và Hanford, Washington.
Kể từ đó, nhóm LIGO đã hợp tác với máy dò Virgo ở Ý và KAGRA (Máy dò Sóng hấp dẫn Kamioka) ở Nhật Bản, tạo thành sự hợp tác LVK. Các máy dò này đã cùng nhau quan sát hơn 200 vụ sáp nhập hố đen trong lần chạy thứ tư và tổng cộng khoảng 300 vụ kể từ lần chạy đầu tiên vào năm 2015.
Trước đây, vụ sáp nhập hố đen lớn nhất - được tạo ra bởi sự kiện GW190521 xảy ra vào năm 2021 - có tổng khối lượng gấp 140 lần khối lượng Mặt Trời. Trong sự kiện GW231123 gần đây, hố đen có khối lượng gấp 225 lần khối lượng Mặt Trời được hình thành từ sự sáp nhập của hai hố đen, mỗi hố đen có khối lượng tương ứng khoảng 100 lần và 140 lần khối lượng Mặt Trời.
Ngoài khối lượng lớn, những hố đen này còn quay rất nhanh. “Đây là hệ nhị phân hố đen lớn nhất mà chúng tôi từng thấy thông qua quan sát sóng hấp dẫn và nó đặt ra một thách thức thực sự cho sự hiểu biết của chúng tôi về sự hình thành hố đen,” Mark Hannam của Đại học Cardiff, người cũng là thành viên của sự hợp tác LVK, cho biết. “Theo các mô hình tiến hóa sao tiêu chuẩn, các hố đen có khối lượng này không được phép tồn tại. Một khả năng là hai hố đen trong hệ nhị phân này được hình thành thông qua sự sáp nhập của các hố đen nhỏ hơn trước đó.”
Dave Reitze, Giám đốc điều hành của LIGO tại Caltech, cho biết: “Quan sát này một lần nữa chứng minh cách sóng hấp dẫn tiết lộ một cách độc đáo các đặc tính cơ bản và kỳ lạ của hố đen trong vũ trụ.”
Hệ thống kỷ lục
Các hố đen trong GW231123 có khối lượng lớn và tốc độ quay cực cao, vượt quá giới hạn của công nghệ phát hiện sóng hấp dẫn và các mô hình lý thuyết hiện tại. Việc trích xuất thông tin chính xác từ tín hiệu đòi hỏi phải sử dụng các mô hình xem xét động lực học phức tạp của các hố đen quay nhanh.
“Những hố đen này dường như quay rất nhanh - gần đến giới hạn mà thuyết tương đối rộng của Einstein cho phép,” Charlie Hoy của Đại học Portsmouth, người cũng là thành viên của LVK, giải thích. “Điều này gây khó khăn cho việc mô hình hóa và giải thích tín hiệu. Đây là một nghiên cứu điển hình tuyệt vời để thúc đẩy sự phát triển các công cụ lý thuyết của chúng tôi.”
Các nhà nghiên cứu đang tiếp tục tinh chỉnh các phân tích của họ và cải thiện các mô hình được sử dụng để giải thích các sự kiện cực đoan như vậy. “Cộng đồng cần nhiều năm để giải mã hoàn toàn mô hình tín hiệu phức tạp này và tất cả các ý nghĩa của nó,” Gregorio Carullo của Đại học Birmingham, người cũng là thành viên của LVK, cho biết. “Mặc dù lời giải thích có khả năng nhất vẫn là sự sáp nhập hố đen, nhưng các tình huống phức tạp hơn có thể là chìa khóa để giải mã các đặc điểm bất ngờ của nó. Tương lai thật thú vị!”
HN | Độ nóng: 351 điểm | 188 bình luận | Tác giả: Eduard #
https://news.ycombinator.com/item?id=44564656
- Năng lượng giải phóng từ sự kiện này tương đương với năng lượng của 10^31 quả bom Sa hoàng, hoặc tương đương với năng lượng mà 45.000 Mặt Trời giải phóng trong toàn bộ vòng đời của chúng.
- Để phù hợp với năng lượng của sự kiện này, cần phải kích nổ 10^13 quả bom Sa hoàng mỗi giây kể từ Vụ Nổ Lớn.
- Các lỗ đen hợp nhất giải phóng nhiều năng lượng trong một khoảnh khắc hơn tất cả các ngôi sao trong vũ trụ giải phóng trong cùng một khoảnh khắc.
- Một siêu tân tinh giải phóng nhiều năng lượng hơn Mặt Trời giải phóng trong toàn bộ vòng đời của nó.
- Tốc độ giải phóng năng lượng của Mặt Trời gần bằng tốc độ trao đổi chất của một loài động vật có vú.
- Sự kiện hợp nhất lỗ đen này đã giải phóng năng lượng tương đương với 15 lần khối lượng Mặt Trời.
- Năng lượng được tạo ra từ tất cả các ngôi sao đang cháy trong vũ trụ hữu hình chỉ là một phần nhỏ so với nhiệt độ nền 2,73°K của vũ trụ.
- Năng lượng giải phóng từ một vụ nổ siêu tân tinh là không thể tưởng tượng được, ngay cả khi quan sát từ khoảng cách 1 parsec cũng có thể gây ra thiệt hại nghiêm trọng.
Dog Walk: Dự án game chính thức của Blender Studio #
Dog Walk: Blender Studio’s official game project
https://blenderstudio.itch.io/dogwalk
《DOGWALK》, dự án trò chơi chính thức của Blender Studio, là một trò chơi tương tác ngắn và thư giãn, dành cho các nền tảng Windows, macOS và Linux. Người chơi sẽ vào vai một chú chó lớn đáng yêu, băng qua khu rừng mùa đông, giúp một đứa trẻ trang trí người tuyết bằng những vật phẩm đầy màu sắc được giấu trong môi trường. Trò chơi cho phép người chơi tự do đi lang thang trong một thế giới mở thu nhỏ, bao gồm khu cắm trại, đường mòn trong rừng, dòng suối đồng quê và ao đóng băng. Người chơi có thể dẫn dắt hoặc kéo đứa trẻ đi theo, giúp đỡ lẫn nhau, trở thành những kẻ nghịch ngợm hoặc những đứa trẻ ngoan. Trò chơi sẽ phản ứng dựa trên phong cách chơi và lựa chọn của người chơi, không có trạng thái thất bại, chỉ có những khoảnh khắc do người chơi tạo ra.
Môi trường trò chơi được tạo thành từ các mô hình làm từ giấy thật, được quét và tái tạo để người chơi có thể tương tác. Blender Studio giới thiệu dự án này như một “Dự án mở” mới, miễn phí và chia sẻ sáng tạo, được thực hiện bằng Blender và Godot game engine, đồng thời cung cấp các phiên bản miễn phí và mã nguồn mở của các phần mềm này. Dự án này được thiết kế để kiểm tra và cải thiện Blender và Godot game engine.
Người chơi có thể hỗ trợ công việc của họ thông qua trang web Blender Studio, mã nguồn và kho sản xuất của trò chơi có thể được truy cập trên trang web. Gói mã nguồn trò chơi 《DOGWALK》 có sẵn theo giấy phép CC BY 4.0, mã nguồn (script) có sẵn theo giấy phép MIT.
Kể từ khi phát hành, trò chơi đã nhận được phản hồi tích cực, với đánh giá 4.8 sao (trên tổng số 19 đánh giá). Các bình luận của người chơi đề cập rằng trò chơi đã để lại ấn tượng sâu sắc cho họ, cho rằng đây là một trải nghiệm rất tuyệt vời và bày tỏ sự đánh giá cao đối với tính nghệ thuật, lối chơi, câu chuyện và âm thanh của trò chơi. Một số người chơi đề xuất tạo phiên bản HTML của trò chơi để có thể kiểm tra trực tiếp trong trình duyệt. Ngoài ra, một số người chơi đã bày tỏ nghi ngờ về giấy phép của trò chơi, nhưng ban quản trị đã làm rõ rằng giấy phép của trò chơi hiện là MIT và có một liên kết từ bài đăng trên blog chính thức trỏ đến trang này. Thời gian chơi trung bình của trò chơi là khoảng nửa giờ, hỗ trợ tiếng Anh, phương thức nhập liệu bao gồm bàn phím, chuột và gamepad. Các liên kết tải xuống trò chơi bao gồm các phiên bản Windows, Linux và macOS, với kích thước tệp lần lượt là 747MB, 740MB và 785MB.
HN | Độ nóng: 317 điểm | 54 bình luận | Tác giả: doener #
https://news.ycombinator.com/item?id=44565603
- Các tài sản 3D của trò chơi được tạo ra bằng cách xử lý các vật phẩm bằng giấy thật thông qua quy trình đo ảnh, nhưng chi tiết cụ thể không rõ.
- Các vật phẩm nghệ thuật giấy của trò chơi được mở ra, quét/chụp ảnh, nhập vào Blender và ánh xạ lên các mô hình 3D, không sử dụng kỹ thuật đo ảnh.
- Trong quá trình phát triển trò chơi, Blender Studio đã chuyển từ Blender Game Engine sang Godot, vì Godot có nhiều triển vọng hơn.
- Trò chơi “Apricot” vào năm 2008, do những hạn chế về kỹ thuật, không thể được triển khai hoàn toàn trong Blender Game Engine, vì vậy đã tạo ra hai phiên bản.
- Một số người dùng cho rằng “Apricot” có cảm giác chưa hoàn thiện, chỉ có thể khám phá rừng và tương tác, nhưng không rõ mục tiêu của trò chơi.
- Trò chơi “Apricot” giống một bản demo kỹ thuật hơn, hiệu suất chạy không tốt.
- Một số người dùng có thiện cảm với UI của Blender phiên bản cũ, cho rằng nó đơn giản và dễ sử dụng hơn UI phiên bản mới.
- Trò chơi “Go Frankie” có thể đã có một diện mạo khác nếu có engine Godot vào thời điểm đó.
- Trò chơi khởi động chậm trên macOS, có thể là do vấn đề ký mã và công chứng.
- Một số người dùng cho rằng Godot nên tập trung vào các vấn đề hiệu suất của macOS để đạt được hỗ trợ đa nền tảng.
- Vấn đề hiệu suất của trò chơi trên macOS có thể liên quan đến việc Gatekeeper xác minh công chứng.
- Một số người dùng cho rằng Godot không cần giải quyết các vấn đề hiệu suất của macOS, vì các công ty game lớn và chính Apple không quan tâm đến điều này.
- Một số người dùng bày tỏ nghi ngờ về cộng đồng người dùng của Godot Engine và sự quan tâm của các công ty game lớn.
- Một số người dùng cho rằng các trò chơi được tạo bằng Godot trông rất thoải mái, mang lại cảm giác ấm cúng.
- Một số người dùng nhớ lại trò chơi tương tự mà họ đã chơi khi còn nhỏ, “Sleepwalker”.
- Trò chơi “Dog Walk” là “bia miễn phí” (free as in beer), nhưng mã nguồn phải trả phí để có được.
- Mã nguồn của trò chơi được cấp phép theo GPLv3, đáng lẽ phải được phân phối miễn phí, nhưng hiện tại dường như không phải như vậy.
Show HN: Shoggoth Mini – Một robot xúc tu mềm được cung cấp bởi GPT-4o và RL #
Show HN: Shoggoth Mini – A soft tentacle robot powered by GPT-4o and RL
https://www.matthieulc.com/posts/shoggoth-mini
Bài viết này thảo luận về những tiến bộ trong lĩnh vực biểu cảm của robot, và làm thế nào biểu cảm có thể cải thiện cảm giác tự nhiên trong tương tác giữa người và máy. Tác giả Matthieu Le Cauchois thông qua dự án Shoggoth Mini của mình, khám phá cách biểu cảm của robot có thể ảnh hưởng đến sự tương tác của nó với con người.
Bài viết bắt đầu bằng việc đề cập rằng, mặc dù công nghệ robot hiện tại như Pi π0.5 và Optimus của Tesla rất ấn tượng về mặt chức năng, nhưng chúng dường như vẫn bị mắc kẹt trong tư duy thiết bị gia dụng robot thực dụng. Để robot trong tương lai có thể chung sống với con người, chúng phải có khả năng biểu cảm để truyền đạt các trạng thái bên trong như ý định, sự chú ý và sự tự tin. Tác giả nhấn mạnh rằng, biểu cảm không chỉ là một kênh giao tiếp mà còn làm cho tương tác trở nên tự nhiên hơn, việc thiếu biểu cảm có thể dẫn đến cái gọi là “hiệu ứng thung lũng kỳ lạ” (uncanny valley).
Tác giả đề cập đến bài báo ELEGNT của Apple, bài báo này sử dụng một chiếc đèn giống như Pixar để thể hiện ý định chỉ bằng tư thế và thời điểm. Đồng thời, anh cũng phát hiện ra SpiRobs, một robot di động cảm ứng mềm đơn giản, mang lại cảm giác sống động chỉ bằng những chuyển động đơn giản. Những khám phá này đã truyền cảm hứng cho tác giả xây dựng Shoggoth Mini để khám phá khái niệm này một cách trực tiếp hơn.
Về phần cứng, tác giả bắt đầu từ một nền tảng thử nghiệm đơn giản, dần dần cải tiến thiết kế, bao gồm việc thêm camera lập thể để theo dõi xúc tu và giải quyết vấn đề dây cáp bị rối. Anh cũng đề cập đến cách tăng tốc độ lặp lại bằng cách thêm các script hiệu chỉnh và cuộn thêm chiều dài dây điện, đồng thời điều chỉnh độ dày của cột sống để ngăn xúc tu bị xệ.
Về điều khiển thủ công, tác giả đã đơn giản hóa việc điều khiển xúc tu, giảm ba chiều dài gân thành hai chiều trực quan, có thể được điều khiển bằng bàn di chuột. Việc ánh xạ 2D sang 3D này trực quan và dễ vận hành, sau này trở thành cốt lõi của toàn bộ hệ thống.
Về thiết kế hệ thống, tác giả giới thiệu hai lớp điều khiển: điều khiển cấp thấp sử dụng các chiến lược RL vòng hở và vòng kín, trong khi điều khiển cấp cao sử dụng API thời gian thực của GPT-4o để tương tác thông qua luồng âm thanh và văn bản. Tác giả đề cập đến cách tối ưu hóa hành vi của GPT-4o thông qua kỹ thuật prompt và thêm một chế độ chờ “thở”, giúp xúc tu trông có sức sống ngay cả khi không hoạt động.
Về mặt nhận thức, tác giả đề cập đến nhu cầu theo dõi bàn tay và đầu mút xúc tu. Anh đã sử dụng MediaPipe để theo dõi bàn tay và thu thập một tập dữ liệu cho xúc tu, sử dụng phân cụm k-means và chức năng chú thích tự động của Roboflow để tăng tốc quá trình chú thích. Thông qua những phương pháp này, tác giả đã huấn luyện một mô hình YOLO để theo dõi đầu mút xúc tu.
Nói chung, bài viết mô tả chi tiết những thách thức, những khám phá bất ngờ và những kiến thức mà tác giả đã học được về việc xây dựng robot trong quá trình xây dựng Shoggoth Mini. Thông qua việc khám phá tính biểu cảm của robot, tác giả hy vọng có thể tạo ra những robot tự nhiên hơn, mang tính tương tác cao hơn, để cải thiện mối quan hệ giữa người và máy.
HN | Độ nóng: 313 điểm | 65 bình luận | Tác giả: cataPhil #
https://news.ycombinator.com/item?id=44572377
- Tính biểu cảm của robot Shoggoth Mini giảm đi khi người ta hiểu rõ hơn về cách nó hoạt động, khiến nó trông không còn sống động như trước.
- Con người có xu hướng gán sự sống và trí thông minh cho mọi thứ, từ các hiện tượng tự nhiên thời cổ đại đến máy móc hiện đại.
- Sự phức tạp của bộ não con người khiến chúng ta không thể hiểu hết lẫn nhau, điều này trái ngược với hành vi đơn giản của robot.
- Một khi đã hiểu hệ thống đằng sau trò chơi, sự thú vị của trò chơi sẽ giảm đi.
- Sau khi khám phá ra chiến lược tối ưu trong trò chơi, trò chơi chuyển từ khám phá thế giới sang theo đuổi hiệu quả.
- Trong các trò chơi như Minecraft và Crusader Kings III, người chơi có thể chọn theo đuổi sự tiến bộ tự nhiên hoặc nhập vai, thay vì chạy đua tốc độ.
- Các trò chơi được thiết kế kém sẽ khiến việc áp dụng các quy tắc trở nên nhàm chán, trong khi các trò chơi thú vị sẽ làm cho việc áp dụng các quy tắc trở nên thú vị.
- Into The Breach là một trò chơi theo lượt có tính thông tin cao, mang tính chiến lược cao, mỗi lượt chơi giống như một câu đố cần giải.
- Baba Is You cũng là một trò chơi cần giải đố, mang lại cảm giác chiến thắng.
- Trợ lý giọng nói và ngôn ngữ cấu trúc có thể cải thiện độ tin cậy theo những cách khác nhau, chẳng hạn như sử dụng giọng không phải bản địa hoặc ngôn ngữ hư cấu.
- Người Anh cho rằng hầu hết các giọng Anh chuyển văn bản thành giọng nói đều nghe giống như người Mỹ cố gắng bắt chước giọng của một vùng cụ thể.
- Độ trễ trong quá trình xử lý phản hồi của GPT gây khó chịu, có thể cần một số hình thức chỉ báo hoạt động, chẳng hạn như đèn LED.
- Các mô hình ngôn ngữ nhỏ hơn có thể phù hợp với Shoggoth Mini, vì nhiệm vụ của nó nghe không phức tạp.
- Có thể thực hiện một số đào tạo bổ sung trên mô hình cục bộ để cải thiện hiệu suất.
- Các mô hình nhỏ như Qwen 0.6B có thể phù hợp với Shoggoth Mini và có thể thích ứng với VRAM nhỏ hơn.
Suy ngẫm về OpenAI #
Reflections on OpenAI
https://calv.info/openai-reflections
Bài viết này là những suy ngẫm và tổng kết của tác giả Calvin French-Owen sau ba tuần rời OpenAI về thời gian làm việc tại công ty này. Bài viết được đăng vào ngày 15 tháng 7 năm 2025, tác giả gia nhập OpenAI vào tháng 5 năm 2024.
Văn hóa và cấu trúc tổ chức: Tác giả bắt đầu bằng việc đề cập đến sự tăng trưởng nhanh chóng của OpenAI, từ hơn 1000 người khi anh gia nhập lên hơn 3000 người, bản thân anh thuộc top 30% những người có thâm niên cao nhất trong công ty. Khi quy mô mở rộng, các phương thức giao tiếp, cấu trúc báo cáo, phát hành sản phẩm, quản lý nhân sự và tổ chức, quy trình tuyển dụng, v.v. của công ty đều phải đối mặt với những thách thức. Sự khác biệt về văn hóa giữa các nhóm là rất lớn, một số nhóm dốc toàn lực để chạy nước rút, một số nhóm duy trì các dự án đang chạy lớn và một số nhóm khác tiến lên với tốc độ ổn định hơn. Do sự đa dạng này, không có một trải nghiệm OpenAI thống nhất. Giao tiếp và ra quyết định: Giao tiếp của OpenAI gần như hoàn toàn dựa vào Slack, không có email. Phương thức giao tiếp này có thể gây mất tập trung cho những người không có tính tổ chức cao, nhưng nếu có thể quản lý tốt các kênh và thông báo, nó cũng có thể trở nên khá khả thi. Công ty rất coi trọng văn hóa từ dưới lên, đặc biệt là trong lĩnh vực nghiên cứu, những ý tưởng hay có thể đến từ bất kỳ đâu và thường không rõ những ý tưởng nào sẽ thành công nhất. Sự tiến bộ của công ty mang tính lặp đi lặp lại, dần dần xuất hiện cùng với thành quả của các nghiên cứu mới. Lãnh đạo và hành động: OpenAI rất coi trọng hành động, thường không cần phải chờ đợi sự cho phép để bắt đầu một dự án mới. Công ty có xu hướng để các nhà nghiên cứu làm việc như những “giám đốc điều hành mini”, tự mình quyết định hướng nghiên cứu. Nếu một vấn đề được coi là nhàm chán hoặc đã được giải quyết, thì nó có thể không được nghiên cứu. Các nhà quản lý nghiên cứu và quản lý sản phẩm xuất sắc là rất quan trọng để kết nối các công việc nghiên cứu khác nhau và tích hợp đào tạo mô hình lớn hơn. Thay đổi và bảo mật: OpenAI có thể nhanh chóng thay đổi hướng đi, điều này hiếm thấy ở các công ty lớn. Công ty chịu sự giám sát rất chặt chẽ từ bên ngoài, tác giả thường thấy các bản tin được đưa ra trước khi chúng được công bố nội bộ. Do đó, OpenAI là một nơi rất bảo mật, nhân viên không thể nói chi tiết về công việc họ đang làm. Dữ liệu tài chính và tiêu thụ của công ty cũng được bảo vệ nghiêm ngặt. Tính nghiêm túc và mục tiêu: Mặc dù có rất nhiều lời chỉ trích từ bên ngoài đối với OpenAI, nhưng mọi người mà tác giả gặp đều đang cố gắng làm điều đúng đắn. Mục tiêu của công ty là xây dựng trí tuệ nhân tạo tổng quát (AGI), điều này có nghĩa là cần phải làm rất nhiều việc. Đồng thời, công ty cũng đang nỗ lực xây dựng một sản phẩm mà hàng trăm triệu người dùng sẽ sử dụng cho nhiều mục đích khác nhau, từ lời khuyên y tế đến điều trị. Ngoài ra, công ty còn cạnh tranh trong đấu trường lớn nhất thế giới, theo dõi chặt chẽ các động thái của Meta, Google và Anthropic. Tính đa dạng và phúc lợi của tổ chức: Tác giả cho rằng OpenAI không nên được coi là một tổng thể duy nhất. Ban đầu, công ty giống như Los Alamos, một nhóm các nhà khoa học và thợ sửa chữa khám phá những giới hạn của khoa học. Nhóm này tình cờ tạo ra ứng dụng tiêu dùng lan truyền nhất trong lịch sử và dần dần phát triển tham vọng bán hàng cho chính phủ và doanh nghiệp. Những người có thâm niên và bộ phận tổ chức khác nhau có những mục tiêu và quan điểm khác nhau. Càng ở lại công ty lâu, mọi người càng có xu hướng nhìn nhận mọi thứ từ góc độ “phòng thí nghiệm nghiên cứu” hoặc “tổ chức phi lợi nhuận vì lợi ích công cộng”. Phổ biến và an toàn của AI: Điều mà tác giả đánh giá cao nhất là hành động thực tế của công ty trong việc phân phối phúc lợi AI. Các mô hình tiên tiến không chỉ giới hạn ở một số cấp doanh nghiệp nhất định, bất kỳ ai cũng có thể đăng nhập vào ChatGPT và nhận câu trả lời, ngay cả khi họ chưa đăng nhập. Ngoài ra còn có một API để đăng ký sử dụng, hầu hết các mô hình (ngay cả những mô hình tiên tiến hoặc độc quyền nhất) cũng có xu hướng nhanh chóng đi vào API để các công ty khởi nghiệp sử dụng. Tác giả tin rằng OpenAI xứng đáng nhận được rất nhiều lời khen ngợi về điều này, nó vẫn là DNA cốt lõi của công ty. Các vấn đề an toàn còn nhiều hơn những gì mọi người đọc được từ Zvi hoặc Lesswrong.
HN | Độ nóng: 296 điểm | 167 bình luận | Tác giả: calvinfo #
https://news.ycombinator.com/item?id=44573195
- Hầu hết các bài đăng “Tại sao tôi rời đi” đều đang cố gắng chứng minh rằng một người không phù hợp với một tổ chức bằng cách đổ hoàn toàn trách nhiệm cho tổ chức đó.
- Một số người cảm thấy lạc lõng vì thiếu lộ trình rõ ràng hoặc cảm giác thuộc về.
- Hành động nhanh chóng và thay đổi hướng đi thường xuyên có thể dẫn đến sự nhầm lẫn và thiếu tầm nhìn nhất quán.
- Mặc dù OpenAI thường xuyên bị chỉ trích trên các phương tiện truyền thông, nhưng mọi người ở đó đều đang cố gắng làm điều đúng đắn.
- Tác giả sẽ không công khai chỉ trích bất kỳ nhà tuyển dụng nào, vì điều này có thể chỉ gây tổn hại đến sự nghiệp của chính họ.
- Điều này đặc biệt đúng với OpenAI, xét đến hành vi trả đũa có thể xảy ra của Altman.
- Bài đăng này có thể là nỗ lực của tác giả để thể hiện kinh nghiệm làm việc ngắn ngủi 14 tháng của mình một cách tốt nhất, để giúp mạng lưới quan hệ của chính anh ấy.
- Mặc dù tác giả đã rất giàu có, nhưng anh ấy vẫn có thể bị ảnh hưởng bởi động cơ.
- Có người nghi ngờ động cơ hành vi của tác giả, cho rằng anh ta có thể đang che đậy sự kiệt sức của mình, hoặc để ngỏ các lựa chọn cho các khoản tài trợ và kết nối trong tương lai.
- “Đạo luật Không im lặng nữa” của California hạn chế các điều khoản không phỉ báng và hành vi trả đũa của nhà tuyển dụng.
- Ngay cả khi bất hợp pháp, việc chống lại OpenAI có thể đòi hỏi phải đấu tranh tại tòa án, và OpenAI có thể trừng phạt hành vi này.
- Nhân viên của OpenAI có thể thể hiện hành vi giống như giáo phái vì tin rằng họ sẽ nhận được lợi nhuận khổng lồ từ cổ phần.
- Nhân viên có thể tin rằng, nếu họ công khai chỉ trích OpenAI, cổ phần của họ sẽ trở nên vô giá trị hoặc không thể bán được.
- Có người không tin rằng trí tuệ nhân tạo tổng quát (AGI) là có thật, vì không có giới hạn vật lý nào ngăn cản sự phát triển của AGI.
Blender 4.5 LTS #
Blender 4.5 LTS
https://www.blender.org/download/releases/4-5/
Blender là một bộ công cụ sáng tạo 3D mã nguồn mở, hỗ trợ toàn bộ quy trình từ mô hình hóa, dựng hình, làm hoạt hình đến mô phỏng, kết xuất, tổng hợp và theo dõi chuyển động. Nó là một công cụ mạnh mẽ, phù hợp cho nhiều lĩnh vực như sản xuất game, hiệu ứng hình ảnh, nghệ thuật, in 3D, v.v. Đặc điểm chính:
- Mã nguồn mở và miễn phí: Blender hoàn toàn miễn phí, không bị bất kỳ hạn chế nào, bạn có thể tự do sử dụng nó cho các dự án thương mại.
- Đa nền tảng: Hỗ trợ hệ điều hành Windows, Linux và macOS.
- Quy trình sáng tạo 3D toàn diện: Từ mô hình hóa đến dựng hình, Blender cung cấp giải pháp sáng tạo 3D một cửa.
- Hỗ trợ cộng đồng: Sở hữu một cộng đồng năng động, người dùng có thể chia sẻ tác phẩm, nhận trợ giúp và học các kỹ năng mới.
Tải xuống Blender: Bạn có thể tải xuống phiên bản Blender mới nhất từ trang web chính thức, hỗ trợ nhiều giao diện ngôn ngữ, bao gồm cả tiếng Trung.
Hỗ trợ và tham gia:
- Nhận hỗ trợ: Nếu bạn gặp vấn đề khi sử dụng Blender, bạn có thể nhận trợ giúp thông qua diễn đàn, tài liệu và cộng đồng.
- Tham gia đóng góp: Blender là một dự án mã nguồn mở, các nhà phát triển và nghệ sĩ được hoan nghênh tham gia phát triển mã, viết tài liệu, dịch thuật và xây dựng cộng đồng.
Tin tức mới nhất:
- Cập nhật dự án: Trang web chính thức sẽ thường xuyên công bố các bản cập nhật và cải tiến mới nhất của Blender, bao gồm các tính năng mới và tối ưu hóa hiệu suất.
- Hoạt động cộng đồng: Cộng đồng sẽ tổ chức nhiều hoạt động khác nhau, chẳng hạn như hội thảo trực tuyến, workshop và cuộc thi, để thúc đẩy giao lưu và học hỏi.
Về Blender: Blender được duy trì bởi Blender Foundation, một tổ chức cam kết thúc đẩy sự phát triển của phần mềm 3D mã nguồn mở và hỗ trợ sự phát triển của cộng đồng Blender.
Cơ hội việc làm: Blender Foundation và các thành viên cộng đồng sẽ đăng tải các cơ hội việc làm liên quan đến Blender, bao gồm các vị trí phát triển phần mềm, giáo dục và sáng tạo nghệ thuật.
Cửa hàng và quyên góp:
- Cửa hàng: Bạn có thể mua các mặt hàng liên quan đến Blender trong cửa hàng Blender, chẳng hạn như áo phông, mũ và mô hình.
- Quyên góp: Bạn có thể hỗ trợ Blender Foundation bằng cách quyên góp, giúp tổ chức tiếp tục phát triển và duy trì Blender.
HN | Độ nóng: 269 điểm | 78 bình luận | Tác giả: obdev #
https://news.ycombinator.com/item?id=44571917
- Blender là một dự án mã nguồn mở đáng được hỗ trợ, ngay cả chi phí một tách cà phê mỗi tháng cũng có thể giúp ích rất nhiều.
- Bằng cách đăng ký Blender Studio, bạn có thể nhận được đào tạo, tài sản, mã nguồn và nhật ký sản xuất, đồng thời hỗ trợ Blender.
- Hỗ trợ các dự án mã nguồn mở có thể tạo ra sự cạnh tranh cho các giải pháp thay thế trả phí, buộc chúng phải cung cấp các sản phẩm tốt hơn hoặc các giao dịch tốt hơn.
- Ngay cả khi không sử dụng Blender, bạn cũng nên hỗ trợ nó, vì một dự án sáng tạo thành công tự nó đã là một niềm vui.
- Blender là một trong những phần mềm mã nguồn mở tốt nhất, rất tinh xảo.
- Một người đã bày tỏ rằng, mặc dù Blender rất quan trọng đối với công việc của anh ấy, nhưng anh ấy kiên quyết phản đối việc Blender là một dự án mã nguồn mở tinh xảo.
- Blender, giống như các dự án mã nguồn mở khác, luôn phải xử lý các chi phí băng thông lớn do các công ty AI liên tục thu thập dữ liệu.
- Blender thậm chí đã bị tấn công DDoS vào năm ngoái, những kẻ tấn công dường như có thái độ thù địch với Blender.
- Một người đã nói rằng ý kiến của họ không quan trọng, điều quan trọng là quyên góp, thay vì đưa ra những bình luận cay độc.
- Một người cảm thấy mệt mỏi với CAPTCHA, đặc biệt khi sử dụng các hệ điều hành và trình duyệt không phổ biến, họ sẽ chọn từ bỏ.
- Một người phản đối việc cung cấp dữ liệu huấn luyện miễn phí cho các công ty AI.
- Một người thích chạy các mô hình miễn phí trên máy tính của mình, những mô hình này được huấn luyện trên dữ liệu có được một cách tự do.
- Một người lo lắng rằng, mặc dù mọi người đều muốn những thứ miễn phí, nhưng luôn phải có người trả tiền cho nó.
- Các tính năng mới của Blender, chẳng hạn như pháp tuyến lưới tùy chỉnh và xác định camera tùy chỉnh thông qua OSL, rất quan trọng đối với việc tạo nội dung 3D.
- Một người tin rằng Blender đang “nuốt chửng” thế giới sáng tạo nội dung 3D, mặc dù Maya và Houdini vẫn dẫn đầu ở một số khía cạnh.
- Một người lo lắng rằng sự phát triển của công nghệ AI có thể làm đảo lộn lĩnh vực sáng tạo nội dung 3D.
- Một người tin rằng công nghệ AI sẽ gây ra sự gián đoạn trong ngắn hạn, nhưng về lâu dài sẽ tích cực đối với các chuyên gia sáng tạo, có thể cải thiện hiệu quả và năng suất.
- Một người cho rằng công nghệ AI có thể làm cho các nhóm nhỏ làm việc hiệu quả hơn, do đó làm giảm các cấp bậc tổ chức.
- Một người lo lắng rằng nếu số lượng người trong đơn vị làm việc không thay đổi, và mọi người đều trở nên hiệu quả hơn, thì thế giới sẽ trở nên tốt đẹp hơn, nhưng cấu trúc tổ chức có thể trở nên nhỏ hơn.
RFC: Cập nhật giấy phép PHP #
RFC: PHP license update
https://wiki.php.net/rfc/php_license_update
Đề xuất Cập nhật Giấy phép PHP
Ngày: 2025-07-10 Tác giả: Ben Ramsey, ramsey@php.netmailto:ramsey@php.net Phiên bản đề xuất: PHP 9.0 Trạng thái: Đang thảo luận Phát hành lần đầu: http://wiki.php.net/rfc/php_license_update
Giới thiệu: Từ lâu, PHP đã gây ra sự nhầm lẫn, lo ngại và tranh cãi do giấy phép nguồn mở tùy chỉnh của nó, cũng như giấy phép Zend Engine (bao gồm mã nguồn trong thư mục Zend/). Giấy phép Zend Engine không phải là giấy phép được Tổ chức Sáng kiến Nguồn mở (Open Source Initiative, OSI) phê duyệt, điều này làm tăng thêm sự phức tạp. RFC này đề xuất một giải pháp thiết thực để đơn giản hóa giấy phép PHP, nhằm mục đích loại bỏ sự nhầm lẫn, giữ lại bản quyền của tất cả những người đóng góp PHP và trao cho người dùng các quyền tương tự như giấy phép gốc. Giấy phép được đề xuất sử dụng là giấy phép BSD sửa đổi, thường được gọi là giấy phép BSD 3 điều khoản.
Đề xuất: Đề xuất này nhằm mục đích giải quyết các vấn đề tồn tại lâu dài trong cộng đồng nguồn mở bằng cách phát hành các phiên bản mới của giấy phép PHP và giấy phép Zend Engine. Giấy phép BSD sửa đổi sẽ được áp dụng làm Giấy phép PHP phiên bản 4 và Giấy phép Zend Engine phiên bản 3. Giấy phép BSD sửa đổi đôi khi được gọi là giấy phép BSD “mới”, “sửa đổi” hoặc “3 điều khoản”, với định danh SPDX là BSD-3-Clause. Nó được Tổ chức Sáng kiến Nguồn mở (OSI) và Tổ chức Phần mềm Tự do (Free Software Foundation, FSF) công nhận là giấy phép phần mềm tự do. FSF đã chỉ định nó là tương thích với Giấy phép Công cộng GNU (GPL) và là giấy phép được OSI phê duyệt.
Bằng cách áp dụng giấy phép BSD sửa đổi:
- Các quyền do người đóng góp cấp sẽ không thay đổi.
- Các quyền được cấp cho người dùng sẽ không thay đổi.
- Chúng tôi sẽ hợp tác với PHP Group và Perforce Software để loại bỏ các điều khoản cụ thể cho họ.
- Phần mềm PHP và Zend Engine sẽ được cấp phép theo các điều khoản được OSI phê duyệt và tương thích với GPL.
Các dự án PHP được đề xuất sẽ:
- Hợp tác với PHP Group để áp dụng giấy phép BSD sửa đổi làm Giấy phép PHP phiên bản 4.
- Hợp tác với Perforce Software để áp dụng giấy phép BSD sửa đổi làm Giấy phép Zend Engine phiên bản 3.
- Loại bỏ giấy phép PHP và giấy phép Zend Engine. Việc sử dụng các giấy phép này trong các dự án mới trong và ngoài dự án PHP là rất không khuyến khích.
- Xóa nội dung tệp LICENSE khỏi phần mềm PHP và thay thế bằng nội dung trong phần “Tệp LICENSE mới”.
- Xóa tệp Zend/LICENSE khỏi Zend Engine.
- Thay thế tiêu đề tệp của tất cả các tệp nguồn PHP trong phần mềm PHP bằng nội dung trong phần “Tiêu đề tệp nguồn PHP mới”.
- Thay thế tiêu đề tệp của tất cả các tệp nguồn Zend Engine bằng tiêu đề trong phần “Tiêu đề tệp nguồn Zend Engine mới”.
- Cập nhật các tài liệu và trang web áp dụng khác để phản ánh những thay đổi này, ví dụ: https://www.php.net/license/.
Các phần bối cảnh, ủy quyền thay đổi và bối cảnh bổ sung cung cấp thêm bối cảnh và lý do pháp lý.
Toàn văn giấy phép BSD sửa đổi: Được phép sao chép và sử dụng, có hoặc không sửa đổi, trong mã nguồn và dạng nhị phân, miễn là đáp ứng các điều kiện sau:
- Việc phân phối lại mã nguồn phải giữ lại thông báo bản quyền ở trên, danh sách các điều kiện này và tuyên bố từ chối trách nhiệm sau đây.
- Việc phân phối lại ở dạng nhị phân phải sao chép thông báo bản quyền ở trên, danh sách các điều kiện này và tuyên bố từ chối trách nhiệm sau đây trong tài liệu và/hoặc các tài liệu khác được cung cấp cùng với bản phân phối.
- Không được sử dụng tên của người giữ bản quyền hoặc tên của những người đóng góp của họ để chứng thực hoặc quảng bá các sản phẩm có nguồn gốc từ phần mềm này mà không có sự cho phép bằng văn bản cụ thể trước đó.
- PHẦN MỀM NÀY ĐƯỢC CUNG CẤP BỞI NHỮNG NGƯỜI GIỮ BẢN QUYỀN VÀ NHỮNG NGƯỜI ĐÓNG GÓP “NGUYÊN TRẠNG” VÀ BẤT KỲ BẢO ĐẢM RÕ RÀNG HOẶC NGỤ Ý NÀO, BAO GỒM NHƯNG KHÔNG GIỚI HẠN Ở CÁC BẢO ĐẢM NGỤ Ý VỀ KHẢ NĂNG BÁN ĐƯỢC VÀ TÍNH PHÙ HỢP CHO MỘT MỤC ĐÍCH CỤ THỂ, ĐỀU BỊ TỪ CHỐI. TRONG BẤT KỲ TRƯỜNG HỢP NÀO, NGƯỜI GIỮ BẢN QUYỀN HOẶC NHỮNG NGƯỜI ĐÓNG GÓP SẼ KHÔNG CHỊU TRÁCH NHIỆM CHO BẤT KỲ THIỆT HẠI TRỰC TIẾP, GIÁN TIẾP, NGẪU NHIÊN, ĐẶC BIỆT, TRỪNG PHẠT HOẶC DO HẬU QUẢ NÀO (BAO GỒM NHƯNG KHÔNG GIỚI HẠN Ở VIỆC MUA SẮM HÀNG HÓA HOẶC DỊCH VỤ THAY THẾ; MẤT KHẢ NĂNG SỬ DỤNG, DỮ LIỆU HOẶC LỢI NHUẬN; HOẶC GIÁN ĐOẠN KINH DOANH) DÙ GÂY RA VÀ TRÊN BẤT KỲ LÝ THUYẾT NÀO VỀ TRÁCH NHIỆM, DÙ LÀ TRONG HỢP ĐỒNG, TRÁCH NHIỆM PHÁP LÝ NGHIÊM NGẶT HOẶC SAI LẦM (BAO GỒM SƠ SUẤT HOẶC HÌNH THỨC KHÁC) PHÁT SINH THEO BẤT KỲ CÁCH NÀO TỪ VIỆC SỬ DỤNG PHẦN MỀM NÀY, NGAY CẢ KHI ĐƯỢC THÔNG BÁO VỀ KHẢ NĂNG XẢY RA THIỆT HẠI NHƯ VẬY.
Tệp LICENSE mới: Bản quyền © 1999–2025, PHP Group và những người đóng góp. Bản quyền © 1999–2025, Zend by Perforce. Được phép sao chép và sử dụng, có hoặc không sửa đổi, trong mã nguồn và dạng nhị phân, miễn là đáp ứng các điều kiện sau:
- Việc phân phối lại mã nguồn phải giữ lại thông báo bản quyền ở trên, danh sách các điều kiện này và tuyên bố từ chối trách nhiệm sau đây.
- Việc phân phối lại ở dạng nhị phân phải sao chép thông báo bản quyền ở trên, danh sách các điều kiện này và tuyên bố từ chối trách nhiệm sau đây trong tài liệu và/hoặc các tài liệu khác được cung cấp cùng với bản phân phối.
- Không được sử dụng tên của người giữ bản quyền hoặc tên của những người đóng góp của họ để chứng thực hoặc quảng bá các sản phẩm có nguồn gốc từ phần mềm này mà không có sự cho phép bằng văn bản cụ thể trước đó. Phần mềm này được cung cấp bởi những người giữ bản quyền và những người đóng góp “nguyên trạng” và bất kỳ bảo đảm rõ ràng hoặc ngụ ý nào, bao gồm nhưng không giới hạn ở các bảo đảm ngụ ý về khả năng bán được và tính phù hợp cho một mục đích cụ thể, đều bị từ chối. Trong bất kỳ trường hợp nào, người giữ bản quyền hoặc những người đóng góp sẽ không chịu trách nhiệm cho bất kỳ thiệt hại trực tiếp, gián tiếp, ngẫu nhiên, đặc biệt, trừng phạt hoặc do hậu quả nào (bao gồm nhưng không giới hạn ở việc mua sắm hàng hóa hoặc dịch vụ thay thế; mất khả năng sử dụng, dữ liệu hoặc lợi nhuận; hoặc gián đoạn kinh doanh) dù gây ra và trên bất kỳ lý thuyết nào về trách nhiệm, dù là trong hợp đồng, trách nhiệm pháp lý nghiêm ngặt hoặc sai lầm (bao gồm sơ suất hoặc hình thức khác) phát sinh theo bất kỳ cách nào từ việc sử dụng phần mềm này, ngay cả khi được thông báo về khả năng xảy ra thiệt hại như vậy.
HN | Độ nóng: 268 điểm | 76 bình luận | Tác giả: josephwegner #
https://news.ycombinator.com/item?id=44565647
- Meta sử dụng Hack thay vì PHP, việc đóng gói, tài liệu và tính khả dụng của Hack không tốt do thiếu đánh giá hiệu năng
- Nhiều doanh nghiệp lớn cấm rõ ràng việc sử dụng phần mềm AGPL vì không thể chứng minh được việc ngăn chặn bị kích hoạt bởi điều khoản “tương tác mạng từ xa”
- Chọn AGPL có thể ngăn các doanh nghiệp sử dụng mã của bạn, nhưng cũng có những doanh nghiệp như Grafana, Mastodon và Mattermost chạy phần mềm AGPL
- Nhà phát triển nên tập trung vào quyền tự do của người dùng thay vì những hạn chế của doanh nghiệp đối với quyền tự do của khách hàng
- AGPL cho phép người dùng chọn trả tiền cho các doanh nghiệp khác để lưu trữ dịch vụ
- AGPL nhắm vào các doanh nghiệp sử dụng phần mềm để cung cấp các dịch vụ mạng độc quyền, các doanh nghiệp phi kỹ thuật không bị ảnh hưởng bởi những vấn đề này
- Tính mơ hồ và chưa được kiểm chứng của ngôn ngữ AGPL khiến nhiều nơi, kể cả các lĩnh vực phi kỹ thuật, lo ngại về việc trở thành trường hợp thử nghiệm
- Một số dự án chọn AGPL vì lý do triết học, đạo đức hoặc lo sợ cạnh tranh, nhưng “tính phóng xạ” của AGPL đủ để khiến người dùng tiềm năng sợ hãi
- Các công ty khởi nghiệp mã nguồn mở nếu muốn tránh bị khai thác kiểu AWS, có thể chọn mô hình cấp phép kép AGPL và giấy phép thương mại
- Grafana về cơ bản đã thực hiện cách tiếp cận này và đang hoạt động tốt với tư cách là một công ty và dòng sản phẩm
- Người dùng không thể sử dụng lại các thành phần biểu đồ của Grafana ở những nơi khác, do đó Perses.dev đã ra đời
- Nhiều doanh nghiệp lớn sẽ sử dụng phần mềm AGPL vì có thể cấp phép kép, AGPL cho phép tuyên bố “mã nguồn mở” đồng thời tính phí phổ biến thông qua các tùy chọn giấy phép thương mại
- Meta thực sự có một số ứng dụng PHP, họ có một loạt các trang web chạy WordPress
- Giấy phép PHP và lịch sử của nó được thể hiện rõ ràng ở một nơi, không có tiếp thị hoặc những thứ vô nghĩa do AI tạo ra
- Những thứ vô nghĩa do AI tạo ra không thêm nội dung mới, trên thực tế, những thứ vô nghĩa luôn tồn tại
- Lần đầu tiên nhìn thấy con trỏ ba lớp khi nghiên cứu mã nguồn của PHP Zend engine cách đây 25 năm, sau đó sử dụng PHP trong nhiều năm, kể cả trong các cuộc thi lập trình ở trường trung học
- Hoàn thành dự án trung học bằng Perl, viết ứng dụng Web bằng Catalyst và viết ứng dụng khách di động bằng J2ME
- Viết dự án bằng một ngôn ngữ không phổ biến là cách tốt nhất để tránh những câu hỏi ngớ ngẩn về cơ sở mã của bạn từ các giáo sư/giám khảo ngớ ngẩn
- Không thể tưởng tượng ra một trường hợp hợp lý cho con trỏ “trần” ba lớp, mức độ gián tiếp ngầm định này không thể suy luận được
- Bảng trang về cơ bản là bảng của bảng của bảng, con trỏ ba lớp chỉ được hiểu khi tìm thấy trường hợp sử dụng này
- Bảng ba cấp không có
void***
, mà làPageTableLevel2*
, con trỏ mang thông tin đến cấp độ tiếp theo - Lo lắng về việc không nhận được giấy phép từ tất cả những người đóng góp, những người đóng góp độc hại có thể gây khó khăn cho cuộc sống
- Ở các hệ thống như Hoa Kỳ, bất kỳ ai cũng có thể kiện bất kỳ ai vì bất kỳ lý do gì, mọi người đều dự kiến sẽ chịu chi phí của riêng mình, đó là lý do tại sao mọi người đều quá hoang tưởng và bảo vệ bản thân bằng kim loại của ba chiếc xe tăng
Suy giảm Ngữ cảnh: Cách tăng số lượng token đầu vào ảnh hưởng đến hiệu suất LLM #
Context Rot: How increasing input tokens impacts LLM performance
https://research.trychroma.com/context-rot
Trang web này là một báo cáo kỹ thuật, tiêu đề “Context Rot: How Increasing Input Tokens Impacts LLM Performance” (Sự mục nát ngữ cảnh: Cách tăng số lượng token đầu vào ảnh hưởng đến hiệu suất LLM), được viết bởi các nhà nghiên cứu Kelly Hong của Chroma, cố vấn Anton Troynikov và Giám đốc điều hành Jeff Huber, phát hành ngày 14 tháng 7 năm 2025. Báo cáo khám phá sự thay đổi hiệu suất của các mô hình ngôn ngữ lớn (LLMs) khi xử lý các đầu vào có độ dài khác nhau, đặc biệt là cách hiệu suất của mô hình bị ảnh hưởng khi độ dài đầu vào tăng lên.
Báo cáo bắt đầu bằng cách chỉ ra rằng người ta thường cho rằng LLMs có thể xử lý ngữ cảnh một cách đồng đều, nhưng trên thực tế, giả định này không đúng. Các nhà nghiên cứu đã quan sát thấy rằng hiệu suất của mô hình thay đổi đáng kể theo độ dài đầu vào, ngay cả đối với các tác vụ đơn giản. Báo cáo đánh giá 18 LLMs, bao gồm các mô hình tiên tiến nhất như GPT-4.1, Claude 4, Gemini 2.5 và Qwen3. Kết quả cho thấy các mô hình này không sử dụng ngữ cảnh của chúng một cách đồng đều; ngược lại, hiệu suất của chúng trở nên ngày càng không đáng tin cậy khi độ dài đầu vào tăng lên.
Báo cáo đề cập rằng sự phát triển mới nhất của LLMs có xu hướng hướng tới các cửa sổ ngữ cảnh dài hơn, với số lượng token đầu vào đạt đến hàng triệu. Các mô hình này đã đạt được điểm số gần như hoàn hảo trên các bài kiểm tra chuẩn được sử dụng rộng rãi như “Needle in a Haystack (NIAH)” (Kim trong đống cỏ khô), do đó người ta thường cho rằng chúng hoạt động đồng đều trong các tác vụ ngữ cảnh dài. Tuy nhiên, NIAH về bản chất là một tác vụ truy xuất đơn giản, có thể không đại diện cho các tác vụ linh hoạt, hướng đến ngữ nghĩa.
Để nghiên cứu thêm về hành vi của mô hình trong các thiết lập chưa được khám phá đầy đủ, báo cáo đã mở rộng tác vụ NIAH tiêu chuẩn, xem xét tác động của kim (needle) phù hợp ngữ nghĩa thay vì đối sánh từ vựng trực tiếp, cũng như giới thiệu các thay đổi về nội dung của đống cỏ khô (haystack). Ngoài ra, còn có đánh giá hỏi đáp theo kiểu hội thoại bằng LongMemEval và một tác vụ tổng hợp trong đó mô hình sao chép một loạt các từ lặp đi lặp lại. Mỗi tác vụ đều được cố ý giữ đơn giản và được kiểm soát một cách có ý thức để cô lập tác động riêng của độ dài ngữ cảnh.
Báo cáo cho thấy rằng ngay cả trong những điều kiện tối thiểu này, hiệu suất của mô hình cũng giảm khi độ dài đầu vào tăng lên, và sự suy giảm này thường diễn ra một cách đáng ngạc nhiên và không đồng đều. Các ứng dụng trong thế giới thực thường liên quan đến độ phức tạp lớn hơn, điều này có nghĩa là tác động của độ dài đầu vào có thể còn đáng kể hơn trong thực tế.
Báo cáo cũng thảo luận về việc các LLMs hiện đại thường có độ dài ngữ cảnh đầu vào hàng triệu token. Ví dụ: Gemini 1.5 Pro lần đầu tiên giới thiệu cửa sổ ngữ cảnh 1M của họ vào đầu năm 2024, sau đó GPT-4.1 và Llama 4 lần lượt giới thiệu cửa sổ ngữ cảnh 1M và 10M. Các trường hợp sử dụng ngữ cảnh dài rất thuyết phục: ngữ cảnh càng dài có nghĩa là LLM có thể xử lý nhiều thông tin hơn trong mỗi lần gọi và tạo ra đầu ra sáng suốt hơn.
Báo cáo cuối cùng đề cập rằng việc thiết kế các bài kiểm tra chuẩn ngữ cảnh dài thực tế là một thách thức. Khi độ dài đầu vào tăng lên, độ phức tạp của tác vụ thường tăng lên, điều này gây khó khăn cho việc cô lập sự suy giảm hiệu suất là do đầu vào dài hơn hay do vấn đề vốn khó hơn. Để giải quyết vấn đề này, các thử nghiệm giữ cho độ phức tạp của tác vụ không đổi, chỉ thay đổi độ dài đầu vào, do đó đo lường trực tiếp tác động của chính độ dài đầu vào.
Báo cáo cũng đề cập đến một số công việc liên quan, bao gồm bài kiểm tra chuẩn NIAH, một thử nghiệm được sử dụng rộng rãi để đánh giá khả năng ngữ cảnh dài của mô hình, nhưng nó chỉ đo lường một khả năng hẹp: truy xuất từ vựng. Các mô hình thường hoạt động tốt trên NIAH, điều này dẫn đến nhận thức rằng vấn đề ngữ cảnh dài về cơ bản đã được giải quyết. Tuy nhiên, NIAH đánh giá thấp các khả năng cần thiết cho hầu hết các tác vụ ngữ cảnh dài trong thực tế. Các biến thể của NIAH, chẳng hạn như NoLiMa, bao gồm các cặp kim-câu hỏi không đối sánh từ vựng, cho thấy sự suy giảm hiệu suất đáng kể. Các tác vụ có vẻ khó tương tự khác, chẳng hạn như kiểm tra khả năng của mô hình trong việc xác định đoạn văn bản bị thiếu trong AbsenceBench, cũng cho thấy sự suy giảm hiệu suất khi độ dài đầu vào tăng lên.
Báo cáo cũng đề cập đến các bài kiểm tra chuẩn phức tạp hơn, chẳng hạn như đa vòng tham chiếu (MRCR), Graphwalks và Latent List, những bài kiểm tra này tiếp tục làm nổi bật sự suy giảm hiệu suất của đầu vào dài. MRCR hợp nhất nhiều nhiệm vụ con thành một: xác định các phần liên quan, loại bỏ sự mơ hồ trong các yếu tố gây nhiễu, suy luận trình tự của kim và sao chép văn bản. Để quy sự thất bại của mô hình trong báo cáo là do độ dài đầu vào tăng lên, người ta phải giả định rằng mô hình có khả năng như nhau trong mỗi nhiệm vụ con. Tuy nhiên, giả định này chưa được kiểm tra đầy đủ; có thể là mô hình thất bại trong một nhiệm vụ con cụ thể hoặc thất bại trong một số tổ hợp riêng biệt khi độ dài đầu vào tăng lên. Bản chất phức tạp của các tác vụ này gây khó khăn cho việc đánh giá một cách có hệ thống vị trí và cách thức chính xác mà mô hình thất bại trong ngữ cảnh dài.
Báo cáo cuối cùng đề cập đến việc mở rộng tác vụ NIAH cổ điển, liên quan đến việc đặt một sự thật ngẫu nhiên (kim) vào giữa một cửa sổ ngữ cảnh dài (đống cỏ khô), sau đó hỏi mô hình về sự thật đó. Việc triển khai tác vụ NIAH ban đầu sử dụng các cặp kim-câu hỏi có đối sánh từ vựng. Tuy nhiên, việc sử dụng ngữ cảnh dài trong thực tế thường đòi hỏi sự hiểu biết ngữ nghĩa về các tác vụ mơ hồ. NoLiMa chứng minh rằng việc không đối sánh từ vựng là một thách thức đối với mô hình khi độ dài ngữ cảnh tăng lên. Tác vụ này sử dụng các cặp kim-câu hỏi yêu cầu mô hình suy ra các liên kết tiềm ẩn, ví dụ: câu hỏi là “Nhân vật nào đã đến Helsinki?” kim là “Trên thực tế, Yuki sống cạnh bảo tàng Kiasma.”
HN | Độ nóng: 242 điểm | 58 bình luận | Tác giả: kellyhongsn #
https://news.ycombinator.com/item?id=44564248
- Đầu vào văn bản dài có thể dẫn đến giảm hiệu suất LLM, cần có kỹ thuật ngữ cảnh
- Gemini Pro giảm hiệu suất khi nhập văn bản dài, tóm tắt tài liệu trước khi cung cấp toàn văn có thể cải thiện hiệu suất
- Claude Code hoạt động kém hơn sau nhiều lần nén, có thể là do thông tin không liên quan tăng lên trong cửa sổ ngữ cảnh
- Phong cách RAG hoặc vòng lặp proxy đơn giản có thể tránh ô nhiễm ngữ cảnh
- Gemini mất tính mạch lạc và khả năng suy luận khi ngữ cảnh trở nên dài hơn
- Xóa ngữ cảnh bằng lệnh /clear thay vì thoát có thể cải thiện hiệu suất
- AI agent của Appmap làm rất tốt trong việc quản lý ngữ cảnh
- Ứng dụng NotebookLM có thể phân đoạn và tóm tắt tài liệu ở chế độ nền, đồng thời trò chuyện với toàn văn thông qua RAG
- Các hướng dẫn và kế hoạch rõ ràng, cụ thể có thể cải thiện các thay đổi mã hoặc đầu ra chức năng trong ngữ cảnh dài
- Tạo kế hoạch hoặc “thông số kỹ thuật” rõ ràng có thể nâng cao hiệu quả của ứng dụng LLM
- Ngữ cảnh dài có thể dẫn đến suy giảm hiệu suất LLM, đặc biệt là trong các tác vụ yêu cầu các bước nhảy logic
- Claude Code bắt đầu lặp lại hoặc bỏ qua các vấn đề khi phiên trở nên dài hơn, có thể là do quản lý ngữ cảnh không đúng cách
- Hiệu suất LLM giảm có thể là do lời nhắc của người dùng và quản lý ngữ cảnh không đúng cách
- Cần có một phương pháp dễ dàng để cắt tỉa ngữ cảnh để cải thiện hiệu suất mô hình