2025-07-20 Top Stories

2025-07-20 Top Stories #

  1. Khách sạn Hyatt bị cáo buộc thu phí hút thuốc sai do lỗi thuật toán, làm dấy lên cuộc thảo luận về quản lý khách sạn và quyền lợi của khách hàng.
  2. Tác giả chia sẻ kinh nghiệm về thiết lập tự lưu trữ, nhấn mạnh tầm quan trọng của bảo vệ quyền riêng tư và kiểm soát dữ liệu, đồng thời thảo luận về những thách thức trong quá trình thực hiện.
  3. Kích thước trang web nên được kiểm soát dưới 14kB để tối ưu hóa tốc độ tải, đặc biệt trong môi trường mạng có độ trễ cao.
  4. Mô hình ngôn ngữ lớn suy luận thử nghiệm của OpenAI đã đạt được thành tích huy chương vàng trong IMO 2025, nhưng các chi tiết kỹ thuật của nó gây tranh cãi.
  5. Một trang web câu hỏi trắc nghiệm về f-strings của Python 3.13 cung cấp 26 câu hỏi, dành cho các nhà phát triển kiểm tra sự hiểu biết về f-strings.
  6. Chi tiêu vốn cho trí tuệ nhân tạo có tác động đáng kể đến nền kinh tế, có thể chiếm 2% GDP của Hoa Kỳ và đóng góp khoảng 0,7% vào tăng trưởng kinh tế.
  7. Meta từ chối ký quy tắc ứng xử về trí tuệ nhân tạo của EU, cho rằng nó can thiệp quá mức và có thể cản trở sự phát triển của công ty.
  8. Nghiên cứu chỉ ra rằng DNA khối u trong cơ thể bệnh nhân ung thư có thể xuất hiện trong máu nhiều năm trước khi chẩn đoán, mang lại hy vọng mới cho sàng lọc sớm.
  9. Các khái niệm bất đồng bộ và đồng thời là khác nhau, bất đồng bộ đề cập đến việc thực hiện các nhiệm vụ không theo thứ tự, trong khi đồng thời đề cập đến việc hệ thống có thể đồng thời thúc đẩy nhiều nhiệm vụ.
  10. Tác giả đưa ra khái niệm “lễ nghi trí tuệ nhân tạo”, cho rằng việc hiển thị nội dung do AI tạo ra mà không có sự đồng ý là bất lịch sự.

Khách sạn Hyatt đang sử dụng “máy dò khói” Rest thuật toán #

Hyatt Hotels are using algorithmic Rest “smoking detectors”

https://twitter.com/_ZachGriff/status/1945959030851035223

Gần đây, Zach Griff đã chia sẻ trên mạng xã hội về trải nghiệm khiếu nại mà anh gặp phải sau khi lưu trú tại khách sạn Hyatt Pell ở Newport, Rhode Island. Anh và gia đình cùng bạn bè đã trải qua kỳ nghỉ lễ Độc lập tại khách sạn, và khi trả phòng, anh phát hiện hóa đơn bị tính thêm 500 đô la phí hút thuốc, mặc dù anh chưa bao giờ hút thuốc. Mặc dù họ đã giải thích tình hình cho nhân viên lễ tân và nói rằng họ đã sử dụng máy sấy tóc, nhưng nhân viên lễ tân lại tỏ thái độ thù địch và tuyên bố “Máy dò khói của chúng tôi không nói dối”.

WMbvbR9j1o4TktxPpK4cabainlf.png

Sau ba ngày không nhận được phản hồi, Zach bắt đầu tìm kiếm các đánh giá trực tuyến về khách sạn và phát hiện ra nhiều khách hàng đã báo cáo các trường hợp tương tự như anh: bị tính sai 500 đô la phí hút thuốc và cũng bị đối xử tương tự khi khiếu nại. Vì vậy, anh quyết định quay video và đăng lên Instagram và TikTok, kết quả là video đã nhanh chóng lan truyền.

Không lâu sau, tổng giám đốc khách sạn Erik Berlied đã liên hệ với anh, nói rằng chủ khách sạn đã bị sốc bởi video và hỏi tại sao anh lại đăng video. Zach yêu cầu theo dõi qua email để lưu giữ bằng chứng, và khách sạn hứa sẽ hoàn tiền. Tuy nhiên, Zach đồng thời nhận được tin nhắn từ nhiều người hâm mộ, những người cũng đã gặp phải phí hút thuốc 500 đô la tại cùng một khách sạn, nhưng vẫn đang phải vật lộn để được hoàn tiền.

Mặc dù Erik đề nghị có thể giảm một số chi phí xuống còn 250 đô la, nhưng không đưa ra lời hứa hoàn tiền. Về phía Hyatt, họ cho biết khách sạn đang “xem xét” vụ việc này. Vụ việc này đã làm dấy lên cuộc thảo luận rộng rãi hơn về quản lý khách sạn và bảo vệ quyền lợi của khách hàng.


HN | Độ nóng: 703 điểm | 413 bình luận | Tác giả: RebeccaTheDev #

https://news.ycombinator.com/item?id=44612487

  • Luôn kiểm tra biên lai chi tiêu của bạn.
  • Sử dụng thẻ tín dụng du lịch chuyên dụng để giảm tác động đến các tài khoản khác.
  • Nếu khách sạn không chấp nhận phí hủy, bạn có thể chọn rời đi hoặc thanh toán rồi gửi cảnh báo gian lận ngay lập tức.
  • Các nhà cung cấp tín dụng ở Hoa Kỳ sẽ không xử lý tranh chấp cho đến khi giao dịch không còn ở trạng thái “đang chờ xử lý”.
  • Tận dụng khoảng thời gian 2-3 ngày để trao đổi vấn đề này với ban quản lý khách sạn.
  • Nếu khách sạn không nhượng bộ, hãy đánh dấu khoản phí là “gian lận” và tải ảnh biên lai lên cho nhà cung cấp thẻ tín dụng.
  • Nếu không có lo ngại về quyền riêng tư, bạn có thể chia sẻ vấn đề này trên mạng xã hội.
  • Nên có một cách để trừng phạt các công ty cố gắng thực hiện hành vi này.
  • Có một vấn đề mất cân bằng quyền lực, khách sạn kiểm soát khách hàng thông qua ủy quyền trước thẻ tín dụng.
  • Có người đề xuất thiết lập một thỏa thuận trọng tài ràng buộc tự động thông qua liên minh thành viên để chống lại các nhà cung cấp dịch vụ.
  • Có người đặt câu hỏi liệu chính phủ có thực sự đại diện cho người dân hay không, cho rằng thực tế đó là một chế độ tài phiệt.
  • Có người phản bác rằng Hoa Kỳ là một nền dân chủ đại diện hoặc cộng hòa, không phải là một nền dân chủ trực tiếp.
  • Có người chỉ ra rằng “cộng hòa” và “dân chủ” thực sự có nghĩa là người dân cai trị, là cùng một điều.
  • Có người chỉ trích hệ thống bầu cử hiện tại, cho rằng nó giống một trận đấu thể thao hơn là một hệ thống đại diện thực sự.
  • Có người cho rằng, nếu không có sự ủng hộ của đảng D hoặc R, các ứng cử viên của đảng thứ ba khó có thể thành công.
  • Có người nhấn mạnh rằng, mặc dù không hoàn hảo, nhưng Hoa Kỳ vẫn là một quốc gia dân chủ.

Thiết lập Tự Lưu Trữ của Tôi #

My Self-Hosting Setup

https://codecaptured.com/blog/my-ultimate-self-hosting-setup/

Bài viết này nói về kinh nghiệm của tác giả trong việc xây dựng thiết lập tự lưu trữ tối ưu của riêng mình. Sau khi thử nhiều phương pháp tự lưu trữ khác nhau, tác giả quyết định từ bỏ việc theo đuổi sự “hoàn hảo”, thay vào đó chọn giải pháp “đủ tốt” và đặt ra các mục tiêu và yêu cầu rõ ràng.

Mục tiêu

Mục tiêu chính của tác giả khi tự lưu trữ là kiểm soát dữ liệu và dịch vụ của mình, để tăng cường bảo vệ quyền riêng tư và giảm rủi ro phụ thuộc vào các dịch vụ của công ty. Tác giả muốn mở rộng quyền kiểm soát này cho gia đình và bạn bè.

Yêu cầu

Để đạt được mục tiêu, tác giả đã liệt kê các yêu cầu sau để cân bằng giữa bảo mật, dễ sử dụng và độ phức tạp:

  1. Cố gắng không để các dịch vụ tiếp xúc với Internet công cộng để giảm nguy cơ trở thành mục tiêu của những kẻ tấn công độc hại.
  2. Giảm khả năng cấu hình sai dẫn đến cơ sở hạ tầng cốt lõi ngừng hoạt động trong thời gian dài.
  3. Hoàn toàn sở hữu các thành phần cốt lõi, ngay cả khi dự án chết hoặc bị mua lại, vẫn có thể tiếp tục sử dụng.
  4. Giúp gia đình và bạn bè dễ sử dụng, duy trì đăng nhập một lần và cố gắng triển khai đăng nhập một lần (SSO) càng nhiều càng tốt.
  5. Cấu hình càng khai báo càng tốt, dễ dàng kiểm soát phiên bản và dễ hiểu.
  6. Cập nhật nên đơn giản và an toàn để tác giả có thể thực hiện kịp thời.

Lựa chọn công nghệ

Tác giả đã chọn các công nghệ cốt lõi sau để xây dựng thiết lập tự lưu trữ:

  • NixOS: Một bản phân phối Linux sử dụng ngôn ngữ Nix và trình quản lý gói để cấu hình hệ điều hành, mạnh mẽ và dễ dàng cấu hình các dịch vụ.
  • ZFS: Một hệ thống tệp có chức năng bảo vệ dữ liệu tuyệt vời, có thể tạo ảnh chụp nhanh ổ đĩa hiệu quả về không gian.
  • Tailscale: Một VPN dạng lưới dễ sử dụng, cho phép các thiết bị kết nối với nhau mà không cần tiếp xúc với Internet công cộng.
  • Authelia & LLDAP: Cung cấp dịch vụ xác thực và thư mục.

Thiết kế bố cục

Tác giả đặt tất cả cấu hình vào một kho Git để có được lợi ích của việc kiểm soát phiên bản và có thể chia sẻ các mô-đun cấu hình trên nhiều máy. Tác giả cũng đã học cách những người khác tổ chức và sử dụng các tệp Nix bằng cách tìm kiếm cấu hình ngôn ngữ Nix trên GitHub.

Các vấn đề và giải pháp cụ thể

Trong bài viết, tác giả chia sẻ một số vấn đề cụ thể gặp phải trong quá trình xây dựng thiết lập tự lưu trữ và các giải pháp của chúng.

Kế hoạch tiếp theo

Tác giả đưa ra các kế hoạch trong tương lai và các hướng cải tiến có thể.

Cuối bài viết, tác giả đề cập đến một số liên kết hữu ích đã tham khảo khi xây dựng thiết lập tự lưu trữ và nhấn mạnh tầm quan trọng của phần mềm nguồn mở, nhưng cũng chỉ ra rằng trong một số trường hợp, nếu có giải pháp không phải nguồn mở tốt hơn, tác giả cũng sẽ cân nhắc sử dụng. Tác giả hy vọng thông qua việc chia sẻ kinh nghiệm của mình, có thể giúp đỡ người khác và tiếp tục tinh thần chia sẻ của cộng đồng nguồn mở.


HN | Độ nóng: 522 điểm | 185 bình luận | Tác giả: mirdaki #

https://news.ycombinator.com/item?id=44612151

  • Mặc dù phần mềm nguồn mở có mặt ở khắp mọi nơi, nhưng đối với người dùng cuối và khách hàng, việc điều phối và tích hợp nhiều hệ thống vẫn còn nhiều thách thức.
  • Đăng nhập một lần (SSO) rất quan trọng đối với gia đình và bạn bè, vì nó ảnh hưởng trực tiếp đến việc mọi người có sử dụng một dịch vụ hay không.
  • Các dự án nguồn mở hoạt động riêng lẻ, thiếu định hướng thống nhất, nhưng điều đó không có nghĩa là chúng ta không thể có được trải nghiệm người dùng tốt.
  • Lĩnh vực tự lưu trữ (self-hosting) đã trở nên dễ sử dụng hơn trong năm năm qua, cả về mặt thiết lập lẫn sử dụng.
  • FOSS (Phần mềm Tự do và Nguồn mở) không đủ dễ tiếp cận đối với những người không am hiểu về kỹ thuật, cần một nền tảng kết nối những người am hiểu về kỹ thuật và những người không am hiểu về kỹ thuật.
  • Ngay cả những người không am hiểu về kỹ thuật cũng có thể dễ dàng hiểu OIDC và OAuth2, không quá khó.
  • Đặc tả OIDC phức tạp, ngay cả các chuyên gia trong lĩnh vực bảo mật cũng khó có thể hiểu đầy đủ.
  • Chữ ký của ID Token rất quan trọng để ngăn chặn hành vi giả mạo độc hại, đảm bảo tính bảo mật của xác thực.
  • Việc triển khai OIDC có thể không tuân theo các bản cập nhật đặc tả mới nhất, vì cách diễn đạt trong đặc tả mang tính gợi ý, không có yêu cầu bắt buộc.
  • Sử dụng .htaccess và phân phối mật khẩu cho bạn bè là một giải pháp khả thi.
  • Sử dụng khả năng tương thích SSO làm tiêu chí chính để lựa chọn dịch vụ là khả thi và không quá khó.
  • YunoHost là một bản phân phối dễ sử dụng, có thể thiết lập SSO.
  • Cloudflare Zero Trust được sử dụng để xác thực SSO, Cloudflare Tunnels được sử dụng cho các dịch vụ tại nhà.
  • Sử dụng authentik thông qua Google, Discord hoặc GitHub để triển khai SSO là đủ tốt cho tất cả mọi người.

Một trang 14kb có thể tải nhanh hơn nhiều so với một trang 15kb (2022) #

A 14kb page can load much faster than a 15kb page (2022)

https://endtimes.dev/why-your-website-should-be-under-14kb-in-size/

Chủ đề của trang web là về lý do tại sao kích thước trang web nên được giữ dưới 14kB.

Không có gì đáng ngạc nhiên khi một trang web nhỏ hơn có thể tải nhanh hơn. Điều đáng ngạc nhiên là một trang 14kB tải nhanh hơn đáng kể so với trang 15kB, có thể nhanh hơn 612 mili giây, trong khi sự khác biệt giữa trang 15kB và 16kB là không đáng kể. Điều này chủ yếu là do thuật toán TCP Slow Start. Bài viết này sẽ giới thiệu thuật toán TCP Slow Start là gì, nó hoạt động như thế nào và tại sao bạn nên quan tâm đến nó. Nhưng trước tiên, chúng ta hãy nhanh chóng xem lại một số kiến thức cơ bản. TCP là gì? Giao thức điều khiển truyền (TCP) là một cách đáng tin cậy để gửi các gói dữ liệu bằng giao thức Internet (IP), đôi khi được gọi là TCP/IP. Khi trình duyệt yêu cầu trang web của bạn (hoặc hình ảnh hoặc biểu định kiểu), nó sử dụng HTTP để thực hiện yêu cầu. HTTP được xây dựng dựa trên TCP và một yêu cầu HTTP duy nhất thường bao gồm nhiều gói TCP. Bản thân IP chỉ là một hệ thống để gửi các gói dữ liệu từ một vị trí trên Internet đến một vị trí khác. IP không có cách nào để kiểm tra xem các gói dữ liệu có đến đích thành công hay không. Đối với các trang web, việc biết rằng tất cả dữ liệu đã đến là rất quan trọng, nếu không chúng ta có thể gặp phải các phần bị thiếu của trang web. Đối với các mục đích sử dụng mạng ít quan trọng hơn, chẳng hạn như phát trực tiếp video, điều này ít quan trọng hơn. TCP Slow Start là gì? TCP Slow Start là một thuật toán mà máy chủ sử dụng để xác định số lượng gói dữ liệu có thể được gửi cùng một lúc. Khi trình duyệt lần đầu tiên kết nối với máy chủ của bạn, máy chủ không thể biết lượng băng thông giữa chúng. Băng thông là lượng dữ liệu có thể được truyền qua mạng trên một đơn vị thời gian, thường được đo bằng bit trên giây (b/s). Một phép loại suy phổ biến là tưởng tượng băng thông giống như lượng nước có thể chảy ra khỏi đường ống mỗi giây. Máy chủ của bạn không biết kết nối có thể xử lý bao nhiêu dữ liệu, vì vậy trước tiên nó sẽ gửi một lượng dữ liệu nhỏ và an toàn, thường là 10 gói TCP. Nếu các gói dữ liệu này đến trang web của khách truy cập thành công, máy tính của họ sẽ gửi xác nhận (ACK), cho biết rằng các gói dữ liệu đã được nhận. Sau đó, máy chủ sẽ gửi nhiều dữ liệu hơn, nhưng lần này số lượng gói dữ liệu sẽ tăng gấp đôi. Quá trình này sẽ tiếp tục lặp lại cho đến khi một gói dữ liệu bị mất và máy chủ không nhận được ACK (tại thời điểm đó, máy chủ sẽ tiếp tục gửi các gói dữ liệu với tốc độ chậm hơn). Nguồn gốc của 14kB là gì? Thuật toán TCP Slow Start của hầu hết các máy chủ web bắt đầu bằng cách gửi 10 gói TCP. Kích thước tối đa của một gói TCP là 1500 byte. Giá trị tối đa này không được đặt bởi đặc tả TCP, mà đến từ tiêu chuẩn Ethernet. Mỗi gói TCP sử dụng 40 byte tiêu đề — 16 byte cho IP và 24 byte khác cho TCP. Điều này để lại 1460 byte cho mỗi gói TCP. 10 x 1460 = 14600 byte, hoặc khoảng 14kB. Một chuyến khứ hồi tồi tệ như thế nào? Mọi người rất thiếu kiên nhẫn và một chuyến khứ hồi có thể rất dài. Điều này phụ thuộc vào độ trễ… Độ trễ là thời gian cần thiết để một gói dữ liệu đi từ nguồn đến đích. Nếu băng thông là lượng nước có thể chảy qua đường ống mỗi giây, thì độ trễ là thời gian cần thiết để một giọt nước đi vào đường ống và sau đó thoát ra khỏi đầu kia. Dưới đây là một ví dụ thú vị về độ trễ có thể tồi tệ như thế nào: Internet vệ tinh. Internet vệ tinh Internet vệ tinh được cung cấp bởi các vệ tinh quay quanh Trái đất. Nó được sử dụng bởi những người ở các khu vực rất xa xôi, giàn khoan dầu, tàu du lịch và Wi-Fi trên máy bay của các hãng hàng không. Để minh họa ví dụ này về độ trễ tồi tệ như thế nào, hãy tưởng tượng một nhóm công nhân giàn khoan dầu quên mang theo xúc xắc và cần sử dụng missingdice.com (dưới 14kB) tuyệt vời để chơi Dungeons and Dragons. Đầu tiên, một trong số họ sử dụng điện thoại của mình để yêu cầu trang web… Điện thoại gửi yêu cầu đến bộ định tuyến Wi-Fi của giàn khoan — bộ định tuyến này gửi dữ liệu đến ăng-ten vệ tinh trên nền tảng — giả sử điều này mất 1 mili giây. Sau đó, ăng-ten vệ tinh phải gửi dữ liệu đến một vệ tinh trên quỹ đạo Trái đất. Thông thường, điều này được thực hiện thông qua một vệ tinh trên quỹ đạo địa tĩnh cách bề mặt Trái đất 35786 km. Ánh sáng di chuyển với tốc độ 299792458 mét mỗi giây, vì vậy một tin nhắn được gửi từ Trái đất đến vệ tinh sẽ mất 120 mili giây. Sau đó, vệ tinh gửi tin nhắn trở lại trạm mặt đất, điều này lại mất 120 mili giây. Sau đó, trạm mặt đất phải gửi yêu cầu đến vị trí máy chủ trên Trái đất (ánh sáng chậm lại trong cáp quang xuống 200000000 mét mỗi giây). Nếu khoảng cách giữa trạm mặt đất và máy chủ giống như khoảng cách giữa New York và London, sẽ mất khoảng 28 mili giây — nhưng nếu nó giống như khoảng cách giữa New York và Sydney hơn, sẽ mất 80 mili giây — vì vậy chúng ta hãy gọi nó là 60 mili giây (một con số thuận tiện). Sau đó, máy chủ cần xử lý yêu cầu, có thể mất 10 mili giây, sau đó máy chủ gửi lại. Trở lại trạm mặt đất, vào không gian, trở lại ăng-ten vệ tinh, sau đó đến bộ định tuyến Wi-Fi và trở lại điện thoại của công nhân dầu khí.

Nếu chúng ta thực hiện phép tính, đó là 10 + (1 + 120 + 120 + 60) x 2 = 612 mili giây. Mỗi chuyến khứ hồi làm tăng thêm 612 mili giây — có lẽ điều này không có vẻ gì là nhiều, nhưng trang web của bạn có thể cần nhiều chuyến khứ hồi để lấy tài nguyên đầu tiên của nó. Ngoài ra, HTTPS cần thêm hai chuyến khứ hồi trước khi thực hiện chuyến khứ hồi đầu tiên — điều này làm tăng thời gian của chúng ta lên 1836 mili giây! Độ trễ có thể ảnh hưởng đến những người sống trên đất liền như thế nào? Internet vệ tinh có vẻ là một ví dụ cố tình tồi tệ — tôi chọn nó vì nó minh họa vấn đề và nó kỳ lạ — nhưng đối với những người sống trên đất liền, độ trễ có thể tồi tệ hơn vì nhiều lý do: 2G di động thường có độ trễ từ 300 mili giây đến 1000 mili giây; Mạng 3G có thể có độ trễ từ 100 mili giây đến 500 mili giây; Mạng di động ồn ào — chẳng hạn như ở một nơi đông đúc bất thường như lễ hội âm nhạc; Máy chủ xử lý lưu lượng truy cập lớn; Những điều tồi tệ; Kết nối không ổn định cũng có thể dẫn đến mất gói dữ liệu — dẫn đến việc cần thêm các chuyến khứ hồi để lấy các gói dữ liệu bị mất.

Bây giờ bạn đã biết về quy tắc 14kB, bạn có thể làm gì? Tất nhiên, bạn nên làm cho trang web của mình nhỏ nhất có thể — bạn yêu khách truy cập của mình, bạn muốn họ hạnh phúc. Mục tiêu là mỗi trang có thể phù hợp với dưới 14kB, đó là một mục tiêu tốt. 14kB đó bao gồm nén — vì vậy trên thực tế, nó có thể giống như khoảng 50kB dữ liệu chưa nén — điều này là hào phóng. Hãy xem xét rằng máy tính dẫn đường Apollo 11 chỉ có 72kB bộ nhớ. Khi bạn loại bỏ video tự động phát, cửa sổ bật lên, Cookie, biểu ngữ đồng ý Cookie, nút mạng xã hội, tập lệnh theo dõi, JavaScript và CSS framework và tất cả những thứ khác mà không ai thích — bạn có thể đạt được điều đó. Tuy nhiên, giả sử bạn đã cố gắng hết sức để nén mọi thứ xuống 14kB nhưng vẫn không thể làm được — quy tắc 14kB vẫn hữu ích. Nếu bạn đảm bảo rằng 14kB dữ liệu đầu tiên được gửi đến khách truy cập có thể được sử dụng để hiển thị một số thứ hữu ích — chẳng hạn như một số CSS, JS quan trọng và một vài đoạn văn bản giải thích cách sử dụng ứng dụng của bạn. Lưu ý — quy tắc 14kB bao gồm các tiêu đề HTTP — chúng không được nén (ngay cả trên phản hồi đầu tiên trên HTTP/2) — nó cũng bao gồm hình ảnh, vì vậy chỉ tải nội dung phía trên trang và giữ chúng rất nhỏ hoặc sử dụng trình giữ chỗ để khách truy cập của bạn biết rằng họ đang chờ đợi một cái gì đó tốt đẹp.


HN | Độ nóng: 421 điểm | 275 bình luận | Tác giả: truxs #

https://news.ycombinator.com/item?id=44613625

  • Các nhà phát triển nên chú ý nhiều hơn đến lớp media, vì các vấn đề về độ tin cậy và độ trễ của 3G/5G, các yêu cầu HTTP cần đến theo thứ tự
  • Một yêu cầu REST duy nhất chỉ là một gói dữ liệu duy nhất khi cả yêu cầu và phản hồi đều nhỏ hơn 1400 byte, nếu không nó sẽ trở thành nhiều yêu cầu và phản hồi, có thể cần thử lại
  • Thử nghiệm trong chế độ 3G thông qua Chrome DevTools, ngay cả những tối ưu hóa “nhỏ” cũng có thể cải thiện đáng kể khả năng phản hồi của UI
  • Làm cho API và UI nhỏ nhất có thể, đây là một lý do mạnh mẽ để giảm thời gian tải
  • Kích thước truyền tải sau khi nén của trang web cá nhân của tác giả là 7.0 kB, sử dụng trình tạo trang web tĩnh được viết bằng Common Lisp
  • Sử dụng KaTeX để hiển thị phía client trong các bài viết toán học, làm tăng thêm 347.5 kB tải trọng bổ sung
  • Cân nhắc sử dụng KaTeX hiển thị phía server trong tương lai
  • Tác giả có xu hướng đưa nội dung trang một cách thận trọng để duy trì kích thước trang
  • Có người đề nghị thay thế KaTeX bằng MathML
  • LaTeX dễ sử dụng hơn MathML, nhưng chất lượng hiển thị của MathML trong trình duyệt không đồng đều
  • Có người đề xuất sử dụng KaTeX hoặc MathJax để tạo HTML và CSS ở phía server, sau đó gửi cho client
  • Biểu thức toán học đối với một số người giống như biểu thức chính quy, họ sử dụng trợ lý mã hóa LLM để viết, hiệu quả tốt
  • KaTeX có thể được hiển thị thành MathML, cả ở phía server hoặc phía client
  • Hiển thị phía server có thể giảm 277kb các tệp thư viện
  • MathML bổ sung được gửi từ client có thể chỉ là một phần nhỏ
  • Cung cấp một công cụ để so sánh sự khác biệt giữa kết xuất KaTeX và MathML của trình duyệt trong các ví dụ trang web
  • Có người hỏi làm thế nào để điều chỉnh khoảng cách xung quanh dấu ngoặc trong kết xuất MathML, để phù hợp với độ chính xác của toán học LaTeX tiêu chuẩn
  • Có người đề xuất sử dụng Chrome không đầu (headless Chrome) hoặc các công cụ khác để hiển thị biểu thức toán học và quay trở lại kết xuất phía client khi dịch vụ không khả dụng
  • Tác giả coi trang web cá nhân là một dự án sở thích, được xây dựng bằng Common Lisp, thích thú với quá trình xây dựng
  • Có người hỏi liệu có thể nói rằng trang web là một dự án sở thích của tác giả hay không
  • Việc giới thiệu các công cụ như Node, Babel, v.v. đòi hỏi thêm công sức và thời gian học tập
  • Có người đề cập rằng hỗ trợ MathML trong Chrome chỉ mới được cải thiện gần đây
  • Có người đề xuất tải các thư viện nặng sau khi trang đã tải xong hoặc tạo các công thức SVG và tải chúng trong khung nhìn

OpenAI tuyên bố đạt huy chương vàng tại IMO 2025 #

OpenAI claims gold-medal performance at IMO 2025

https://twitter.com/alexwei_/status/1946477742855532918Tin mới nhất: Mô hình ngôn ngữ lớn suy luận thử nghiệm của OpenAI đạt được hiệu suất cấp huy chương vàng trong kỳ thi Olympic Toán Quốc tế

Trên nền tảng mạng xã hội X, người dùng Alexander Wei (@alexwei_1) đã đăng một tin tức thú vị. Ông thông báo rằng mô hình ngôn ngữ lớn (LLM) suy luận thử nghiệm mới nhất của OpenAI đã đạt được một bước đột phá lớn trong lĩnh vực trí tuệ nhân tạo: mô hình này đã đạt được hiệu suất cấp huy chương vàng trong cuộc thi toán học uy tín nhất thế giới - Olympic Toán Quốc tế (IMO). Tin tức này được đăng vào lúc 3:50 chiều ngày 19 tháng 7 năm 2025, nhanh chóng thu hút 3,1 triệu lượt xem, 3121,6 nghìn lượt thích và 5,8 nghìn lượt chia sẻ.

IFW1b6PU9o36C6xicMoc4bBEn1b.png

HN | Độ nóng: 376 điểm | 598 bình luận | Tác giả: Davidzheng #

https://news.ycombinator.com/item?id=44613840

  • OpenAI đã đạt được thành tích huy chương vàng tại IMO 2025, sử dụng các công nghệ mới được phát triển, khiến nhiều nhà nghiên cứu của OpenAI cũng phải ngạc nhiên
  • Thành quả này là kết quả nỗ lực của một nhóm nhỏ, do @alexwei_ dẫn dắt, người đã kiên trì với một ý tưởng nghiên cứu mà ít người tin tưởng và đạt được những kết quả ngoài mong đợi
  • Thành quả này cũng không thể tách rời những nỗ lực nghiên cứu và kỹ thuật trong nhiều năm của @OpenAI và cộng đồng AI rộng lớn hơn
  • Có người mỉa mai rằng cái gọi là công nghệ mới là “huấn luyện trên dữ liệu kiểm tra”
  • Bằng chứng dường như sử dụng một vốn từ vựng hạn chế, có người cho rằng điều này có thể giảm tiếng ồn và tập trung hơn
  • Có người cho rằng việc hạn chế sử dụng các token phong phú về ngữ nghĩa có thể tạo ra một chuỗi suy nghĩ mạch lạc về ngữ nghĩa dài hơn
  • Có người cho rằng từ góc độ khả năng mở rộng, việc giảm thiểu token có thể rất có ý nghĩa
  • Có người suy đoán rằng có thể có một số thủ thuật/công cụ AI biểu tượng (và/hoặc AI hiện đại huấn luyện mô phỏng AI biểu tượng) đằng sau đó
  • Có người chỉ ra rằng Alex Wei là người đoạt huy chương vàng IOI, chứ không phải IMO
  • Có người đề cập rằng các mô hình ngôn ngữ lớn (LLM) hàng đầu sẽ giành được huy chương vàng trong năm nay, điều này đã được đề cập trong một podcast gần đây
  • Có người cho rằng bằng cách giảm các từ đệm trong văn bản, có thể đạt được sự tăng tốc đáng kể
  • Có người cho rằng việc tạo ra nhiều token hơn thực sự mở rộng khả năng tính toán, đó là lý do tại sao chuỗi suy nghĩ (chain of thought) hoạt động
  • Có người cho rằng việc tạo ra nhiều token hơn có nghĩa là sử dụng nhiều khả năng tính toán hơn và có một số bằng chứng cho thấy những từ đệm này không bị lãng phí
  • Có người cho rằng mô hình cố gắng tối đa hóa kết quả hữu ích cho mỗi lần tính toán, bạn sẽ muốn có một cửa sổ ngữ cảnh ngắn gọn, không vô nghĩa
  • Có người khuyến khích những người nghĩ rằng đây là những bài toán trung học đơn giản hãy thử giải một vài bài, chúng khiến bạn chóng mặt
  • Có người đề cập rằng những video này có thể mang lại cho bạn cảm giác về cách mọi người thực sự suy nghĩ và giải quyết loại vấn đề này
  • Có người cho rằng những video này cho thấy quá trình suy nghĩ để giải quyết những vấn đề này, chúng trông đơn giản, nhưng lời giải thích lại rất khéo léo
  • Có người đề cập rằng hiện đã có các phiên bản bản địa hóa của các bài toán IMO, có khoảng 50 ngôn ngữ, điều này có thể là cần thiết để loại bỏ rào cản ngôn ngữ cho người dự thi
  • Có người cho rằng việc có quá nhiều phiên bản ngôn ngữ có thể khiến việc duy trì tính bảo mật của các bài toán trở nên khó khăn hơn
  • Có người cho rằng những bài toán này được lựa chọn bởi đại diện của tất cả các quốc gia, vì vậy mỗi quốc gia đều có người biết toàn bộ nội dung bài thi, sự an toàn chủ yếu dựa vào hệ thống danh dự
  • Có người cho rằng nếu không luyện tập các bài toán của năm ngoái, điều này sẽ rất khó đối với những người đó, nếu LLM được huấn luyện với các cuộc thi IMO trong 30 năm qua, thì việc dự đoán mô hình token tiếp theo là rất dễ dàng đối với nó
  • Có người cho rằng tất cả các bài toán IMO trong quá khứ đều được công khai, người dự thi sẽ luyện tập trên chúng, nếu việc giải các bài toán IMO chỉ đơn giản là “xem tất cả các bài toán trong quá khứ và áp dụng các mô hình tương tự” thì bạn sẽ mong đợi những người dự thi là con người làm tốt hơn
  • Có người cho rằng bạn chưa trải qua các cuộc thi AMC8, AMC10, AIME, nếu bạn tự tin như vậy, hãy thử đưa ra một bài toán toán học chưa được giải quyết, vượt ra ngoài phạm vi các cuộc thi toán học trung học

Fstrings.wtf #

Fstrings.wtf

https://fstrings.wtf/

Trang web này là một trang web trắc nghiệm về hành vi của f-strings trong Python phiên bản 3.13. Nó cung cấp một bài kiểm tra trực tuyến, cho phép người dùng kiểm tra mức độ hiểu biết của họ về Python f-strings. Trang web được tạo bởi Armin Ronacher, được khuyến khích bởi Lukasz Langa và Yury Selivanov. Bài kiểm tra này được lấy cảm hứng từ jsdate.wtf và mã nguồn của nó có thể được tìm thấy trên GitHub.

  1. Giới thiệu về bài kiểm tra: Đây là một bài kiểm tra về hành vi của f-strings trong Python 3.13, người dùng có thể kiểm tra trình độ kiến thức của mình bằng cách hoàn thành 26 câu hỏi.
  2. Giao diện bài kiểm tra: Người dùng có thể thấy điểm hiện tại và số câu hỏi, có thể chọn “Next Question” để tiếp tục bài kiểm tra hoặc “Finish Quiz” để hoàn thành bài kiểm tra. Nếu người dùng muốn bắt đầu lại, họ có thể chọn “Restart Quiz”.
  3. Chia sẻ kết quả: Sau khi hoàn thành bài kiểm tra, người dùng có thể thấy điểm số cuối cùng của mình và có cơ hội chia sẻ lên các nền tảng xã hội khác nhau.
  4. Trợ giúp và phản hồi: Nếu người dùng gặp vấn đề trong quá trình kiểm tra, họ có thể mở một ticket để phản hồi. Đồng thời, người dùng cũng có thể chọn sử dụng các phím tắt 1/2/3/4 để nhanh chóng chọn câu trả lời hoặc sử dụng các phím mũi tên và phím cách/Enter để chọn câu trả lời.
  5. Người tạo và mã nguồn: Cuối trang web đề cập rằng bài kiểm tra này được tạo ra bởi @mitsuhiko và Claude, và nếu bạn muốn xem mã nguồn, bạn có thể tìm thấy nó trên GitHub.
  6. Tiếp tục bài kiểm tra: Nếu người dùng có một bài kiểm tra chưa hoàn thành trước đó, trang web sẽ hỏi người dùng có muốn tiếp tục bài kiểm tra trước đó hay không.

HN | Độ nóng: 364 điểm | 109 bình luận | Tác giả: darkamaul #

https://news.ycombinator.com/item?id=44614370

  • Khi đã sử dụng tính năng nội suy chuỗi, sẽ rất bất tiện nếu không có nó, nhưng lạm dụng có thể dẫn đến code khó hiểu.
  • Python và C# cho phép sử dụng các biểu thức phức tạp trong nội suy chuỗi, nhưng điều này có thể khiến code khó bảo trì.
  • Tiêu chuẩn C++ 23 không cung cấp nội suy chuỗi, cần phải truyền tham số để định dạng chuỗi.
  • Nội suy chuỗi của Rust có nhiều hạn chế, chỉ có thể nội suy định danh, điều này có thể là không đủ, nhưng cũng tránh được sự phức tạp quá mức.
  • Tính năng template chuỗi của Java đã bị từ bỏ vì không khả thi, ngay cả khi có nhu cầu.
  • Mỗi ngôn ngữ lập trình tìm thấy một điểm cân bằng khác nhau giữa độ thuần túy và tính thực dụng, không có một sự cân bằng đúng đắn thống nhất.
  • Tính năng nội suy chuỗi trong một số trường hợp có thể dẫn đến code khó kiểm soát.
  • Ngôn ngữ mini định dạng chuỗi của C# rất khó nhớ, cần phải tra cứu tài liệu thường xuyên.
  • Một số người cho rằng f-string lồng nhau không có trường hợp sử dụng, trong khi những người khác lại cho rằng fstrings của Python rất tiện lợi để sử dụng.
  • Tính năng nội suy chuỗi của Rust bị chỉ trích là không thực tế, vì nó không thể được sử dụng trong nhiều trường hợp.
  • Các phương pháp định dạng chuỗi của Python rất đa dạng, nhưng việc ghi nhớ những khác biệt nhỏ giữa chúng gây đau đầu.
  • Một số hạn chế của f-strings, chẳng hạn như dấu ngoặc kép và ký tự xuống dòng, đã được loại bỏ trong phiên bản Python 3.12.
  • Sử dụng f-strings trong các lệnh gọi log có thể làm mất lợi thế của việc nội suy trì hoãn.
  • Một số người vẫn sử dụng các phiên bản Python cũ, vì vậy code cần tương thích với định dạng f-strings của các phiên bản cũ.

Chi phí vốn AI quá lớn đến mức nó đang ảnh hưởng đến các thống kê kinh tế #

AI capex is so big that it’s affecting economic statistics

https://paulkedrosky.com/honey-ai-capex-ate-the-economy/

Bài viết này được Paul Kedrosky viết, tiêu đề là “Honey, AI Capex is Eating the Economy” (Em yêu, chi tiêu vốn AI đang nuốt chửng nền kinh tế), được đăng vào ngày 18 tháng 7 năm 2025. Bài viết thảo luận về tác động của chi tiêu vốn (capex) cho trí tuệ nhân tạo (AI) đối với nền kinh tế, đặc biệt là cách nó ảnh hưởng đến số liệu thống kê kinh tế, thúc đẩy tăng trưởng kinh tế và bắt đầu tiến gần đến mức của thời kỳ hưng thịnh đường sắt.

Bài viết bắt đầu bằng việc đề cập đến việc tác giả trước đây đã viết về sự nguy hiểm của việc Chủ tịch Cục Dự trữ Liên bang (FED) tu sửa tòa nhà, đặc biệt là dưới một chính phủ đang tìm lý do để sa thải ông. Tác giả đề cập đến những lời chỉ trích của Trump đối với Chủ tịch FED Powell thông qua một bài báo giải thích trên tờ Wall Street Journal, cũng như mối quan hệ giữa chính sách tiền tệ của Powell và việc tu sửa tòa nhà.

Trong phần “Rough Notes” (Ghi chú sơ bộ), tác giả đi sâu vào tình trạng chi tiêu quá mức cho các trung tâm dữ liệu AI. Trung Quốc có hơn 250 trung tâm dữ liệu đang được xây dựng. Tuy nhiên, Hoa Kỳ dẫn đầu về chi tiêu vốn. Dựa trên dữ liệu bán hàng trung tâm dữ liệu mới nhất của Nvidia, một nhà phân tích suy đoán rằng đến năm 2025, chi tiêu vốn AI có thể chiếm khoảng 2% GDP của Hoa Kỳ, có nghĩa là AI đóng góp 0,7% vào tăng trưởng GDP.

Bài viết tiếp tục thảo luận về việc ước tính tác động này có thể là mức thấp nhất, việc phân bổ lại chi tiêu vốn đến từ những nơi khác và việc chi tiêu này giúp giải thích một bí ẩn. Tác giả cung cấp một số dữ liệu cơ bản, bao gồm GDP của Hoa Kỳ năm 2025 dự kiến là 25 nghìn tỷ đô la, doanh số bán trung tâm dữ liệu của Nvidia là 3,91 tỷ đô la (tính theo năm là 15,64 tỷ đô la), trong đó khoảng 99% liên quan đến AI. Thị phần của Nvidia trong chi tiêu vốn cho trung tâm dữ liệu là 25-35%, hệ số nhân kinh tế là 1,5x-2,0x. Theo đó, tổng chi tiêu vốn cho trung tâm dữ liệu ước tính khoảng 52 tỷ đô la.

Bài viết chỉ ra rằng những con số này rất lớn, vì trước năm 2022, chi tiêu vốn AI có thể chưa đến 0,1% GDP. Trong vòng ba năm, nó đã tăng ít nhất 10 lần, thậm chí còn hơn. So với các đợt bùng nổ chi tiêu vốn trước đây như đường sắt hoặc viễn thông, chi tiêu vốn cho trung tâm dữ liệu AI có thể chiếm 20% GDP, tương đương với tỷ lệ chi tiêu cho đường sắt vào thời kỳ đỉnh cao của thế kỷ 19 và vẫn đang tăng nhanh.

Phần thứ hai của bài viết thảo luận về các nguồn vốn, bao gồm dòng tiền nội bộ, phát hành nợ, vốn chủ sở hữu và phát hành tiếp theo, vốn đầu tư mạo hiểm/vốn cổ phần tư nhân, các tổ chức mục đích đặc biệt (SPV), cho thuê và các công cụ hỗ trợ tài sản, cũng như cam kết tiêu dùng đám mây. Tác giả chỉ ra rằng những nguồn vốn này không tự nhiên mà có, mà được chuyển từ những nơi khác, chẳng hạn như vốn đầu tư mạo hiểm phi khoa học đời sống hiện chủ yếu đầu tư vào AI, và các dự án khác cần vốn có thể gặp khó khăn.

Phần thứ ba giải quyết một bí ẩn kinh tế, đó là tại sao mặc dù có thuế quan, sự không chắc chắn về chính trị và tin đồn về việc Chủ tịch FED có thể bị sa thải, nền kinh tế không lo lắng như dự kiến. Bài viết đưa ra giả thuyết rằng Hoa Kỳ đang thực hiện một chương trình kích thích quy mô lớn của khu vực tư nhân, đó là chương trình chi tiêu cho trung tâm dữ liệu AI, chương trình này đang phân bổ lại một lượng lớn chi tiêu và bơm thêm tiền. Chương trình “kích thích” này có thể đã ngăn chặn sự thu hẹp GDP lớn hơn trong quý đầu tiên, giúp che giấu những điểm yếu kinh tế tiềm ẩn.

Bài viết kết luận rằng chúng ta đang ở một thời điểm lịch sử bất thường. Bất kể mọi người nghĩ gì về AI hoặc việc mở rộng trung tâm dữ liệu, quy mô và tốc độ triển khai vốn vào một công nghệ khấu hao nhanh là đáng kinh ngạc. Đây không phải là đường sắt - chúng ta không xây dựng cơ sở hạ tầng trăm năm. Các trung tâm dữ liệu AI là các cơ sở tồn tại ngắn ngủi, thâm dụng tài sản, chúng dựa vào đường cong công nghệ giảm chi phí và cần thay thế phần cứng thường xuyên để duy trì tỷ suất lợi nhuận. Sự gia tăng này mang lại những hậu quả không lường trước được, vốn đang được tích cực phân bổ lại từ vốn đầu tư mạo hiểm đến ngân sách nội bộ, hy sinh lợi ích của các lĩnh vực khác. Toàn bộ các loại hình đầu tư đang bị tước đoạt, và việc sa thải hàng loạt đã xảy ra. Trớ trêu thay, AI đã gây ra tình trạng thất nghiệp hàng loạt trước khi được triển khai rộng rãi.


HN | Độ nóng: 346 điểm | 336 bình luận | Tác giả: throw0101c #

https://news.ycombinator.com/item?id=44609130

  • Tỷ lệ 1.2% GDP không phải là quá lớn, không cao so với các công nghệ hoặc dự án mang tính chuyển đổi khác
  • Ngành dịch vụ tài chính chiếm 9% GDP là một điểm dữ liệu đáng lo ngại hơn
  • Gần 20% GDP được sử dụng cho chăm sóc sức khỏe, xét đến việc Mỹ đầu tư vào chăm sóc sức khỏe không tương xứng với những gì nhận được
  • So với các quốc gia khác, Mỹ chi gấp đôi cho chăm sóc sức khỏe nhưng nhận lại ít hơn nhiều
  • Nếu Mỹ áp dụng hệ thống chăm sóc sức khỏe toàn dân của Úc, người dân có thể được hưởng dịch vụ chăm sóc sức khỏe gần như miễn phí, với chi phí chính phủ tương đương hiện tại
  • Một số quốc gia có hệ thống y tế toàn dân, chi tiêu ít hơn Mỹ nhưng tuổi thọ trung bình lại cao hơn
  • Hệ thống chăm sóc sức khỏe của Mỹ trợ cấp cho các quốc gia khác, thúc đẩy sự đổi mới và vị thế thống trị thị trường của các công ty chăm sóc sức khỏe
  • Chuyển sang chăm sóc sức khỏe toàn dân có thể phá vỡ thị trường Mỹ, ảnh hưởng đến chi phí chăm sóc sức khỏe toàn cầu
  • Ngành dịch vụ tài chính chiếm 9% GDP không có gì đáng ngạc nhiên vì nó bao gồm các khoản phí và lãi suất cho vay, giao dịch, đầu tư, v.v.
  • Phí dịch vụ tài chính cao không cho thấy hiệu quả mà là chi phí hoạt động cao
  • Visa và Mastercard không trích 2.5% từ toàn bộ nền kinh tế, phần lớn phí trao đổi thuộc về các ngân hàng
  • Hoạt động quốc tế của Visa có nghĩa là một phần doanh thu của họ đến từ bên ngoài nước Mỹ
  • Chi phí xử lý tiền mặt rất cao, bao gồm đếm tiền, trả lại tiền thừa, ngân hàng đếm tiền và nhiều thao tác khác
  • Nhiều người muốn nghỉ hưu dựa vào 401k, lương hưu, v.v., những thứ này phụ thuộc vào thị trường chứng khoán
  • 1% người giàu nhất thế giới sở hữu một nửa tài sản của thế giới, khoảng cách giàu nghèo đang gia tăng
  • Thừa kế tài sản là một vấn đề, nhiều vấn đề của nước Mỹ phát sinh do không giải quyết được vấn đề này
  • Cho rằng thu nhập nên được quyết định dựa trên nỗ lực làm việc chứ không phải danh tính của cha mẹ, phản đối việc thừa kế giữa các thế hệ
  • Trong số những người siêu giàu, chỉ một số ít sở hữu công ty, phần lớn là quyền sở hữu công ty

Meta cho biết sẽ không ký thỏa thuận AI của Châu Âu #

Meta says it won’t sign Europe AI agreement

https://www.cnbc.com/2025/07/18/meta-europe-ai-code.html

Meta Platforms tuyên bố sẽ không ký vào quy tắc ứng xử về trí tuệ nhân tạo của Liên minh Châu Âu, vì công ty cho rằng quy tắc này là một sự can thiệp quá mức, sẽ “cản trở” sự phát triển của công ty. Quyết định này được đưa ra bởi Giám đốc các vấn đề toàn cầu Joel Kaplan trong một bài viết trên LinkedIn. Kaplan viết trong bài viết: “Châu Âu đang đi sai đường trong lĩnh vực trí tuệ nhân tạo.” Ông cho rằng quy tắc này đưa ra nhiều sự không chắc chắn về mặt pháp lý cho các nhà phát triển mô hình và các biện pháp của nó vượt xa phạm vi của Đạo luật Trí tuệ Nhân tạo (AI Act) được thông qua vào năm ngoái.

Tuần trước, Ủy ban Châu Âu đã công bố phiên bản cuối cùng của quy tắc ứng xử về mô hình trí tuệ nhân tạo tổng quát và để các công ty tự quyết định có ký hay không. Các quy tắc này sẽ có hiệu lực vào tháng tới, nhằm cung cấp một khuôn khổ để tuân thủ Đạo luật Trí tuệ Nhân tạo được các nhà lập pháp châu Âu thông qua vào năm ngoái, đạo luật này nhằm mục đích tăng cường tính minh bạch và an toàn xung quanh công nghệ này.

Meta không phải là công ty đầu tiên phản đối sổ tay quy tắc trí tuệ nhân tạo mới của Châu Âu. Các công ty như ASML Holding và Airbus gần đây đã ký một bức thư kêu gọi EU trì hoãn việc thực hiện quy tắc này trong hai năm. Tuần trước, OpenAI đã cam kết ký vào quy tắc ứng xử này. Kaplan cho biết trong bài viết rằng họ có chung mối quan tâm với các doanh nghiệp này, sự can thiệp quá mức này sẽ kìm hãm sự phát triển và triển khai các mô hình trí tuệ nhân tạo tiên tiến ở Châu Âu, đồng thời cản trở các công ty Châu Âu muốn xây dựng hoạt động kinh doanh dựa trên các mô hình này.

Kaplan đã thay thế cựu Giám đốc các vấn đề toàn cầu Nick Clegg vào đầu năm nay. Trước đây, ông từng là Phó chủ tịch chính sách Hoa Kỳ tại Facebook và từng là nhân viên trong chính quyền của Tổng thống George W. Bush.


HN | Độ nóng: 316 điểm | 476 bình luận | Tác giả: rntn #

https://news.ycombinator.com/item?id=44607838

  • 40 công ty EU yêu cầu hoãn thi hành Đạo luật AI trong hai năm vì nội dung của đạo luật không rõ ràng.
  • Quy tắc thực hành do EU ban hành mang tính tự nguyện, có nghĩa là việc ký kết có thể giảm bớt sự giám sát.
  • Nhà cung cấp mô hình phải chịu trách nhiệm nếu đối tác hạ nguồn lạm dụng mô hình, yêu cầu cao đối với mô hình nguồn mở.
  • EU cung cấp một ngoại lệ không cần giấy phép để đào tạo các tác phẩm có bản quyền.
  • Bản quyền không phải là quyền con người bẩm sinh, mà là động cơ kinh tế do chính phủ tạo ra để khuyến khích các hành vi cụ thể.
  • Chính phủ bảo vệ lợi ích kinh tế của người sáng tạo khi người sáng tạo mạnh mẽ, nhưng giờ đây các công ty lớn vi phạm bản quyền trên quy mô lớn lại được miễn trừ.
  • Luật bản quyền có thể không mang lại lợi ích cho công chúng và người sáng tạo cũng khó kiếm sống bằng sáng tạo.
  • Luật bản quyền của EU bảo vệ lợi ích của người sáng tạo chứ không phải lợi ích của công chúng.
  • Sự tồn tại của luật bản quyền chủ yếu là để bảo vệ lợi ích thương mại, chứ không phải lợi ích công cộng hoặc quyền của người sáng tạo.

DNA ung thư có thể được phát hiện trong máu nhiều năm trước khi chẩn đoán #

Cancer DNA is detectable in blood years before diagnosis

https://www.sciencenews.org/article/cancer-tumor-dna-blood-test-screening

Bài viết này thảo luận về một nghiên cứu đột phá về phát hiện sớm ung thư. Nghiên cứu chỉ ra rằng DNA khối u có thể tồn tại trong máu hơn ba năm trước khi mọi người được chẩn đoán mắc bệnh ung thư. Phát hiện này cho thấy rằng việc sử dụng các kỹ thuật có độ nhạy và độ chính xác cao để tìm kiếm những dấu hiệu đặc trưng này có thể trở thành một công cụ mạnh mẽ để sàng lọc ung thư sớm. Công nghệ này một ngày nào đó có thể giúp các bác sĩ phát hiện ra bệnh ung thư trước khi bất kỳ dấu hiệu hoặc triệu chứng nào khác xuất hiện, ngay cả khi việc chẩn đoán sớm hơn vài tháng so với bình thường cũng có thể cung cấp cho bệnh nhân nhiều lựa chọn điều trị hơn, và việc phát hiện sớm hơn vài năm có thể cứu sống bệnh nhân.

Các nhà nghiên cứu đã biết rằng các tế bào khối u có thể giải phóng các đoạn DNA vào máu trong nhiều năm, nhưng việc tìm kiếm các đoạn này ở giai đoạn đầu của bệnh giống như “mò kim đáy bể”. Điều này là do các khối u mới hình thành rất nhỏ và chỉ giải phóng một lượng DNA cực nhỏ vào máu. Nhóm nghiên cứu muốn tìm hiểu xem họ có thể phát hiện ra loại DNA này trong máu ở giai đoạn sớm đến mức nào. Họ dựa vào các mẫu được thu thập từ những năm 1980 đến những năm 1990, từ một nghiên cứu đã theo dõi sức khỏe của những người tham gia trong nhiều thập kỷ. Các nhà nghiên cứu đã phân tích các mẫu từ 26 người được chẩn đoán mắc bệnh ung thư trong vòng sáu tháng sau khi lấy máu.

Các xét nghiệm trong phòng thí nghiệm cho thấy máu của 8 trong số 26 người tham gia nghiên cứu mang các đặc điểm di truyền của bệnh ung thư. Điều này có nghĩa là nhóm nghiên cứu có thể phát hiện ra bệnh ung thư vài tháng trước khi nó được chẩn đoán. Nhưng, liệu có thể phát hiện ra căn bệnh này sớm hơn nữa không? Để tìm hiểu, nhóm của Wang đã sử dụng các mẫu máu được thu thập hơn ba năm trước khi những người tham gia được chẩn đoán mắc bệnh ung thư.

Các nhà nghiên cứu đã sử dụng một kỹ thuật gọi là giải trình tự toàn bộ bộ gen (whole-genome sequencing), cho phép họ đánh vần các chữ cái đơn lẻ tạo nên DNA. Nhóm nghiên cứu đã có thể xác định các dấu hiệu của DNA ung thư, đó là những thay đổi đặc hiệu ung thư trong bộ gen người. Những thay đổi này tồn tại ở mức độ thấp đến mức các xét nghiệm trong phòng thí nghiệm khác có thể bỏ sót chúng.

Việc nhóm của Wang có thể phát hiện ra bệnh ung thư trong các mẫu ở giai đoạn sớm như vậy là “khá kích thích”, William Grady, một bác sĩ chuyên khoa tiêu hóa tại Trung tâm Nghiên cứu Ung thư Fred Hutchinson ở Seattle, người nghiên cứu và điều trị ung thư ruột kết, cho biết. Ông có thể hình dung ra một tương lai giống như Star Trek, trong đó những bệnh nhân có DNA khối u trong máu sẽ được điều trị bằng một loại thuốc “về cơ bản loại bỏ những tổn thương tiền ung thư đó”.

Grady nói, ngày đó có thể còn vài năm nữa. Trong khi đó, ông hy vọng sẽ thấy những kết quả này được xác nhận ở một nhóm người lớn hơn - đó là công việc mà nhóm của Wang hiện đang thực hiện. Nghiên cứu hiện tại là một bằng chứng về khái niệm, bà nói.

“Kết quả đủ hứa hẹn để chúng tôi xem xét thêm nhiều bệnh nhân.”


HN | Độ nóng: 296 điểm | 134 bình luận | Tác giả: bookofjoe #

https://news.ycombinator.com/item?id=44608295

  • Ung thư có thể phát triển trong nhiều năm trước khi được chẩn đoán, các đột biến soma mang bởi các dòng vô tính tiền ung thư có thể tồn tại hàng thập kỷ trước khi chuyển thành tổn thương ác tính.
  • Thách thức vĩnh cửu đối với DNA khối u tuần hoàn (ctDNA) là đạt được độ nhạy và độ đặc hiệu hữu ích.
  • Khi tuổi tác tăng lên, hầu hết mọi người đều có các đột biến soma nền và những người trên 50 tuổi có thể có các dòng vô tính tiền ung thư trong thực quản, tuyến tiền liệt hoặc máu.
  • Hầu hết các xét nghiệm phát hiện sớm đa ung thư (MCED) phổ biến sử dụng các tín hiệu khác ngoài đột biến (ví dụ: trạng thái methyl hóa) để cải thiện độ nhạy/độ đặc hiệu, nhưng liệu nó có thực sự đủ tốt để hữu ích ở cấp độ dân số hay không vẫn còn phải tranh luận.
  • Tính hiệu quả về chi phí của hầu hết các sàng lọc tiếp theo là không khả thi đối với cấu hình độ nhạy-độ đặc hiệu của xét nghiệm MCED.
  • Quét MRI toàn thân dự phòng tạo ra rất nhiều nhiễu và dữ liệu chỉ hữu ích về mặt thống kê trong những trường hợp chúng ta không chắc chắn.
  • Việc sử dụng dữ liệu này để lập kế hoạch điều trị hiện tại giống như phù thủy và có thể gây hại nhiều hơn là có lợi.
  • Có thể cần hàng thập kỷ và các nghiên cứu dọc trên một triệu người trở lên, với MRI, giải trình tự và xét nghiệm máu mở rộng hàng năm để bắt đầu cho thấy sự giảm đáng kể tỷ lệ tử vong do ung thư và cải thiện chẩn đoán các bệnh nghiêm trọng.
  • Chúng ta có thể cần một lượng lớn dữ liệu huấn luyện được đưa vào các thuật toán Machine Learning để khám phá giá trị chẩn đoán trong những dữ liệu này.
  • Cần quan sát những người sẽ được chẩn đoán mắc bệnh ung thư trong tương lai, xem các dấu ấn sinh học và hình ảnh của họ hiện tại, để hình thành các mô hình dự đoán.
  • Các kỹ thuật hiện tại có thể được sử dụng để tìm kiếm các tín hiệu như vậy trong dữ liệu đa chiều phức tạp.
  • Hệ thống hiện tại được thiết lập để điều trị các bệnh giai đoạn cuối vì lợi nhuận.
  • Việc thực hiện các thử nghiệm như vậy rất tốn kém và các nhà quản lý có thể phá vỡ mù sớm và báo cáo mọi phát hiện ngẫu nhiên nhỏ do các ràng buộc về đạo đức, điều này sẽ phá hỏng quá trình huấn luyện.
  • Hoa Kỳ không thể thực hiện các nghiên cứu như vậy về mặt thể chế, nhưng Vương quốc Anh hoặc Trung Quốc có thể.
  • Quét MRI toàn thân dự phòng có ít dữ liệu cho những người khỏe mạnh, gây khó khăn cho việc ngăn ngừa dương tính giả.
  • Liệu pháp gen có thể giải quyết loại vấn đề này, nhưng hiện tại chỉ có thể chỉnh sửa các tế bào đang phân chia.
  • Điều trị bệnh hồng cầu hình liềm bằng cách tiêu diệt tất cả các tế bào gốc tạo máu bình thường, nhưng điều này cực kỳ khó khăn đối với các bệnh hệ thống toàn thân.
  • Chúng ta có thể cần một cách mới để hiểu cách cơ thể con người “triển khai”, tương tự như xem mã nguồn để xác định khả năng logic của một chức năng cụ thể có tồn tại hay không.
  • Nếu có thể định lượng khách quan một cách liên tục sự phù hợp giữa kết quả và giả thuyết, thì tính mù đôi của nghiên cứu có thể không cần thiết.
  • Việc định lượng khách quan liên tục sự phù hợp giữa kết quả và giả thuyết thông qua các mô hình AI có thể giảm chi phí nghiên cứu và thực hiện nhiều nghiên cứu hơn để tinh chỉnh kết quả.

Tính bất đồng bộ không phải là tính đồng thời #

Asynchrony is not concurrency

https://kristoff.it/blog/asynchrony-is-not-concurrency/

Bài viết này được Loris Cro đăng vào ngày 18 tháng 7 năm 2025, với chủ đề “Tính bất đồng bộ không phải là tính đồng thời”. Bài viết trước tiên chỉ ra rằng người ta thường nói “Tính đồng thời không phải là tính song song”, nhưng tác giả cho rằng điều này không đủ hữu ích. Tác giả đưa ra ý kiến rằng chúng ta thiếu một thuật ngữ mô tả một khía cạnh khác của lập trình đồng thời, đó là “tính bất đồng bộ”, điều này dẫn đến sự hiểu biết của chúng ta về hệ sinh thái phần mềm còn thiếu sót.

Bài viết sử dụng hai ví dụ để minh họa sự khác biệt giữa tính bất đồng bộ và tính đồng thời. Ví dụ đầu tiên là lưu hai tệp, thứ tự không quan trọng, có thể sử dụng I/O bất đồng bộ để lưu đồng thời. Ví dụ thứ hai là tạo một máy chủ TCP và kết nối với nó trong cùng một chương trình, trong trường hợp này, thứ tự thực hiện hai tác vụ không quan trọng, nhưng phải được thực hiện đồng thời.

Tác giả đưa ra định nghĩa của ba thuật ngữ này:

  • Bất đồng bộ: Các tác vụ có thể được thực hiện không theo thứ tự, nhưng vẫn đúng.
  • Đồng thời: Hệ thống có khả năng đồng thời thúc đẩy nhiều tác vụ, cho dù thông qua song song hay chuyển đổi tác vụ.
  • Song song: Hệ thống có khả năng thực hiện đồng thời nhiều tác vụ ở cấp độ vật lý.

Bài viết nhấn mạnh tầm quan trọng của việc phân biệt giữa tính bất đồng bộ và tính đồng thời, vì thiếu sự hiểu biết này, chúng ta đã tạo ra các hệ sinh thái ngôn ngữ, trong đó các tác giả thư viện phải lặp lại công việc, hoặc tệ hơn là, sự lan truyền của mã bất đồng bộ khiến ngay cả một phụ thuộc duy nhất vào mã bất đồng bộ cũng yêu cầu người dùng từ bỏ việc viết mã đồng bộ bình thường. Để giải quyết những vấn đề này, chúng ta tạo ra những lối thoát hiểm không thiêng liêng, điều này trong trường hợp tốt nhất dẫn đến hành vi không tối ưu, trong trường hợp xấu nhất dẫn đến bế tắc.

Bài viết cuối cùng thảo luận về câu chuyện I/O bất đồng bộ trong ngôn ngữ Zig, và chỉ ra rằng trong Zig, tính bất đồng bộ không phải là tính đồng thời, vì việc sử dụng io.async không có nghĩa là đồng thời. Ngay cả trong chế độ chặn đơn luồng, mã sử dụng io.async vẫn có thể chạy. Điều này có nghĩa là các tác giả thư viện có thể sử dụng io.async trong mã của họ mà không buộc người dùng phải tránh xa I/O chặn đơn luồng. Ngược lại, mã không sử dụng io.async vẫn có thể tận dụng tính đồng thời, nhưng điều này sẽ không dẫn đến bế tắc. Bài viết giải thích hai yếu tố khiến mã đồng bộ hoạt động tốt trong môi trường đồng thời: sử dụng các lệnh gọi hệ thống I/O hướng sự kiện và sử dụng các nguyên thủy chuyển đổi tác vụ.

Cuối cùng, bài viết thông qua một ví dụ về mã đồng bộ, giải thích cách sử dụng nguyên thủy chuyển đổi tác vụ (yield) để xử lý các thao tác I/O trong Zig. Trong ví dụ này, khi thực hiện hàm write, nó sẽ yêu cầu ghi vào tệp, sau đó trả về ngay lập tức, thay vì chặn chờ thao tác hoàn tất. Lúc này, chương trình cần chuyển sang một tác vụ khác trong khi chờ thao tác hoàn tất, tức là cần yield. Trong trường hợp luồng xanh, yield được thực hiện thông qua trao đổi ngăn xếp, lưu trạng thái của tất cả các thanh ghi đa năng trong CPU và tải một “ảnh chụp nhanh” khác vào CPU. Ảnh chụp nhanh này trước đó đã được vòng lặp sự kiện lưu, nó yield để khôi phục tác vụ được hệ điều hành thông báo là đã sẵn sàng. Bây giờ chúng ta chuyển trở lại vòng lặp sự kiện, điều tương tự sẽ xảy ra một lần nữa.


HN | Độ nóng: 294 điểm | 206 bình luận | Tác giả: kristoff_it #

https://news.ycombinator.com/item?id=44608754

  • Bất đồng bộ không có nghĩa là code đúng, nó có thể gây ra tình trạng race condition ở tầng người dùng.
  • Code bất đồng bộ là cấu trúc code được thiết kế rõ ràng cho tính đồng thời.
  • Bất đồng bộ là đối lập của đồng bộ, chỉ việc hai hoặc nhiều bên cần phối hợp làm việc không đồng bộ với nhau.
  • Code bất đồng bộ có thể làm cho code vốn sẽ bị chặn (block) trở thành không bị chặn (non-block), để những việc khác có thể tiếp tục diễn ra.
  • Bản thân bất đồng bộ không đảm bảo không bị chặn, cần đảm bảo không thực hiện bất kỳ lệnh gọi chặn nào.
  • Có thể chạy code chặn một cách bất đồng bộ, khiến nó trông giống như không bị chặn.
  • Lập trình bất đồng bộ có thể được thiết kế để không bị chặn, cũng có thể chứa code chặn.
  • Mô hình lập trình bất đồng bộ thực chất là viết nhiều đoạn code nhỏ bị chặn, đặc tính không bị chặn của những đoạn code này là nhỏ, mang tính nguyên tử.
  • Đối với một số nhà phát triển, bất đồng bộ là một khái niệm không rõ ràng, họ quan tâm nhiều hơn đến các sự kiện, tính chất chặn của công việc và việc sử dụng API.
  • Mô hình lập trình bất đồng bộ rất quan trọng để hiểu cách code trình duyệt và bộ lập lịch thiết bị sử dụng mô hình đồng thời.

Thật bất lịch sự khi cho mọi người xem kết quả đầu ra của AI #

It’s rude to show AI output to people

https://distantprovince.by/posts/its-rude-to-show-ai-output-to-people/

Bài viết này do Alex Martsinovich chấp bút, thảo luận về vấn đề đầu ra của trí tuệ nhân tạo (AI), cũng như những phép lịch sự mà con người nên tuân theo khi xử lý nội dung do AI tạo ra. Bài viết mở đầu bằng “scramblers” (bộ gây nhiễu tín hiệu) trong tiểu thuyết khoa học viễn tưởng “Blindsight”, những sinh vật ngoài hành tinh thông minh nhưng vô thức, cảm thấy chán ghét những cuộc trò chuyện bất tận của con người, bởi vì chúng chỉ hiểu cách cảm nhận thông tin. Tác giả thông qua phép ẩn dụ này, bày tỏ cảm xúc của mình về văn bản AI, cho rằng văn bản AI giống như một loại virus, tiêu hao tài nguyên của người nhận mà không mang lại bất kỳ lợi ích nào, làm giảm cơ hội sống sót.

Bài viết tiếp tục thảo luận về khái niệm “proof-of-thought” (chứng minh tư duy), tức là trong quá khứ việc viết tốn kém hơn đọc, do đó bất kỳ văn bản viết nào ít nhất cũng có thể chứng minh rằng ai đó đã dành thời gian để viết. Nhưng hiện tại AI khiến văn bản trở nên rất rẻ, không còn có thể dựa vào “proof-of-thought” để đánh giá xem văn bản có phải do con người tạo ra hay không. Bất kỳ văn bản nào cũng có thể do AI tạo ra, và nếu đọc những văn bản này, giống như bị thương trong cuộc chiến này.

Tác giả cho rằng, AI chỉ nói khi được đáp lại, không tự phát tạo ra nội dung. Để có được văn bản AI, phải có người yêu cầu, để truyền bá nó, phải có người chuyển tiếp. Vấn đề nằm ở những người khác, chứ không phải bản thân AI. Sử dụng AI không có vấn đề gì, miễn là bạn biết mình đang nhận được gì, giao dịch là hoàn toàn tự nguyện. Nhưng khi bạn truyền bá đầu ra của AI, bạn có thể vô tình hoặc cố ý sử dụng danh tiếng tốt của mình để hợp pháp hóa nó, cung cấp “proof-of-thought” giả mạo. Trong một số trường hợp, điều này có thể chấp nhận được, bởi vì bạn thực sự đã suy nghĩ và chấp nhận đầu ra của AI như của riêng mình. Nhưng trong những trường hợp khác, điều này là không thể chấp nhận được, bộ não “scrambler” của chúng ta sẽ cảm thấy bị xâm phạm.

Bài viết cuối cùng đưa ra khái niệm “lễ nghi trí tuệ nhân tạo”, tác giả cho rằng vũ khí chính của chúng ta trong cuộc chiến này là lễ nghi AI. Quan điểm của ông là, chỉ khi chấp nhận đầu ra của AI làm của riêng mình hoặc bên nhận đồng ý rõ ràng, thì mới có thể truyền tải đầu ra của AI. Có rất nhiều tranh luận về việc chấp nhận có nghĩa là gì và điều gì có thể được coi là đồng ý, nhưng tác giả cho rằng nguyên tắc cốt lõi là hợp lý. Ông nhấn mạnh, chúng ta nên lịch sự không gửi văn bản AI cho con người, bởi vì chúng ta chỉ đang chọn lọc để tiếp xúc với những tiếng ồn vô nghĩa.


HN | Độ nóng: 268 điểm | 195 bình luận | Tác giả: distantprovince #

https://news.ycombinator.com/item?id=44617172

  • Một số người cho rằng việc sử dụng email hoặc tin nhắn được tạo bởi LLM (mô hình ngôn ngữ lớn) là rất khiếm nhã, thậm chí không muốn đọc.
  • Có người đề cập rằng, khi đồng nghiệp vô tình để lại cuộc trò chuyện với AI trong email, đó là một dấu hiệu rất rõ ràng.
  • Clippy (trợ lý Microsoft Office) nếu còn tồn tại, có lẽ sẽ cảm thấy khó chịu về điều này.
  • Có người đề nghị trả lời theo cách tương tự, lãng phí thời gian của đồng nghiệp, để chỉ ra sai lầm của họ.
  • Nhưng cũng có người cho rằng làm như vậy cũng sẽ lãng phí thời gian của chính mình.
  • Có người đưa ra ý kiến, cuối cùng có thể là cuộc trò chuyện giữa các AI agent với nhau, con người hoàn toàn không tham gia.
  • Có người lo lắng rằng các tin nhắn do LLM tạo ra không đủ cá nhân hóa, thiếu sự kết nối giữa người với người.
  • Có người lo lắng rằng những người không phải là người bản xứ tiếng Anh sử dụng LLM để gửi những tin nhắn tiếng Anh hoàn hảo sẽ khiến họ trông không đủ thông minh.
  • Có người cho rằng sự phổ biến của LLM sẽ thay đổi cách chúng ta giao tiếp và làm việc, dù tốt hay xấu.
  • Có người đặt câu hỏi về tính tất yếu của LLM, cho rằng sự cuồng nhiệt công nghệ này nên được kiềm chế.
  • Có người đề cập rằng, đối với những người khuyết tật gặp khó khăn trong việc viết lách, AI giúp họ diễn đạt bản thân tốt hơn.
  • Có người cho rằng LinkedIn là khu vực chịu ảnh hưởng nặng nề bởi nội dung do AI tạo ra, đề nghị rời khỏi LinkedIn.
  • Có người mỉa mai LinkedIn đã trở thành một nền tảng hẹn hò mới.
  • Có người không hiểu tại sao LinkedIn lại khuyến khích AI tạo ra các phản hồi để tăng mức độ tương tác của người dùng.
  • Có người cảm thấy rằng nếu nội dung do AI tạo ra bây giờ trông không giống AI, thì một hoặc hai năm sau cũng sẽ không giống.
  • Có người chia sẻ cách họ đã yêu cầu cấp dưới ngừng sử dụng các phản hồi do AI tạo ra thông qua phản hồi.
  • Có người cho rằng, điều này có thể giúp họ sàng lọc ra những người không đáng để dành thời gian và sự chú ý.
  • Có người đề cập rằng, họ sử dụng phong cách viết và từ vựng cụ thể để phân biệt nội dung của mình không phải do AI tạo ra.