2025-07-19 Top Stories

2025-07-19 Top Stories #

  1. Chức năng đại diện ChatGPT thông qua việc tích hợp Operator, nghiên cứu chuyên sâu và khả năng đối thoại thông minh, có thể chủ động thực hiện các nhiệm vụ phức tạp, giúp người dùng hoàn thành các công việc từ sắp xếp lịch đến phân tích dữ liệu.
  2. Mã hóa hoàn toàn đồng hình (FHE) thể hiện tiềm năng trong việc hiện thực hóa Internet riêng tư, cho phép tính toán trực tiếp trên dữ liệu đã mã hóa, thúc đẩy sự phát triển của điện toán đám mây được mã hóa và hợp đồng thông minh blockchain bảo mật.
  3. Công ty trí tuệ nhân tạo Anthropic đã hạn chế việc sử dụng Claude Code mà không thông báo cho người dùng, gây ra sự bất mãn cho người dùng, một số người dùng cho rằng đăng ký của họ đã bị hạ cấp hoặc việc theo dõi sử dụng bị lỗi.
  4. Tác giả chia sẻ trải nghiệm hai tuần sử dụng Claude Code, giới thiệu quy trình làm việc và phân tích ưu nhược điểm, nhấn mạnh hạn mức tín dụng API hiệu quả về chi phí.
  5. lsr là một sản phẩm thay thế lệnh ls được triển khai bằng io_uring, bằng cách giảm các lệnh gọi hệ thống để cải thiện hiệu suất, phù hợp để xử lý một lượng lớn tệp.
  6. Bài viết này thảo luận về vấn đề phổ quát của các mô hình trí tuệ nhân tạo, cho rằng khi các mô hình trở nên lớn hơn, chúng có thể hội tụ về một không gian biểu diễn chung và đưa ra “giả thuyết biểu diễn kiểu Plato”.
  7. Chi phí và rủi ro của việc quản lý phụ thuộc trong phát triển phần mềm có thể cao hơn so với phát triển trực tiếp, đặc biệt là các phụ thuộc lớp dưới có ảnh hưởng lớn hơn đến hệ thống, tác giả lấy Tigerbeetle làm ví dụ để minh họa tính hợp lý của việc hoàn toàn tránh các phụ thuộc bên ngoài.
  8. Sở cảnh sát New York đã sử dụng phần mềm nhận dạng khuôn mặt Clearview AI thông qua Sở cứu hỏa thành phố New York, bỏ qua các chính sách hạn chế việc cảnh sát sử dụng công nghệ này, gây ra tranh cãi về quyền riêng tư và pháp lý.
  9. Một thử nghiệm mù đôi ngẫu nhiên cho thấy Psilocybin làm giảm đáng kể các triệu chứng trầm cảm và lo lắng ở những bệnh nhân ung thư đe dọa tính mạng, và hiệu quả vẫn đáng kể sau 6 tháng.
  10. Tác giả cho rằng ứng dụng tốt nhất của AI là viết nhật ký, đặc biệt là chức năng tự động hoàn thành mã toàn dòng trong PyCharm, giúp cải thiện đáng kể hiệu quả phát triển.

ChatGPT agent: kết nối nghiên cứu và hành động #

ChatGPT agent: bridging research and action

https://openai.com/index/introducing-chatgpt-agent/

Trang web này giới thiệu chức năng mới của ChatGPT - ChatGPT Agent (tác nhân), nó có thể kết hợp nghiên cứu và hành động, chủ động lựa chọn một loạt các kỹ năng tác nhân để hoàn thành nhiệm vụ cho bạn.

Us9hbFpWfoMhCDxr2QzcDH8Cned.png

Giới thiệu về ChatGPT Agent: ChatGPT giờ đây có thể sử dụng máy tính của riêng mình để làm việc cho bạn, xử lý các tác vụ phức tạp từ đầu đến cuối. Bạn có thể để ChatGPT giúp bạn xem lịch và lên kế hoạch dựa trên bản tin gần đây về cuộc họp khách hàng sắp tới, lên kế hoạch và mua nguyên liệu để làm bữa sáng kiểu Nhật cho bốn người, cũng như phân tích ba đối thủ cạnh tranh và tạo một bản trình bày slide. Năng lực cốt lõi: Cốt lõi của chức năng mới này là một hệ thống tác nhân thống nhất, kết hợp ba ưu điểm đột phá trước đây: Operator có thể tương tác với trang web, nghiên cứu sâu có thể tổng hợp thông tin, và ChatGPT có trí thông minh và khả năng giao tiếp trôi chảy. ChatGPT sử dụng máy tính ảo của riêng mình để thực hiện các tác vụ, chuyển đổi trôi chảy giữa suy luận và hành động, xử lý các quy trình làm việc phức tạp. Quyền kiểm soát: Bạn luôn có quyền kiểm soát khi sử dụng ChatGPT Agent. ChatGPT sẽ yêu cầu sự cho phép của bạn trước khi thực hiện các hành động quan trọng, bạn có thể ngắt, tiếp quản trình duyệt hoặc dừng tác vụ bất kỳ lúc nào. Cách sử dụng: Người dùng Pro, Plus và Team có thể kích hoạt khả năng tác nhân mới của ChatGPT trực tiếp thông qua menu thả xuống công cụ, chọn “Chế độ tác nhân”. Tiến hóa tự nhiên: Trước đây, Operator và nghiên cứu sâu mỗi loại đều mang lại những lợi thế riêng, nhưng chúng hoạt động tốt nhất trong các tình huống khác nhau. Bằng cách tích hợp hai lợi thế bổ sung này vào ChatGPT và giới thiệu các công cụ bổ sung, chúng tôi đã mở khóa các khả năng hoàn toàn mới. Giờ đây, ChatGPT có thể chủ động tương tác với các trang web, nhấp, lọc và thu thập kết quả chính xác và hiệu quả hơn. Công cụ tác nhân: ChatGPT Agent được trang bị một loạt các công cụ: một trình duyệt trực quan tương tác với web thông qua giao diện người dùng đồ họa, một trình duyệt dựa trên văn bản để truy vấn web đơn giản dựa trên suy luận, một terminal và quyền truy cập API trực tiếp. Agent cũng có thể sử dụng ChatGPT Connector, cho phép bạn kết nối các ứng dụng như Gmail và Github, để ChatGPT có thể tìm thấy thông tin liên quan đến lời nhắc của bạn và sử dụng chúng trong phản hồi của nó. Ứng dụng thực tế: Những khả năng tác nhân thống nhất này tăng cường đáng kể tính hữu dụng của ChatGPT trong môi trường hàng ngày và chuyên nghiệp. Trong công việc, bạn có thể tự động hóa các tác vụ lặp đi lặp lại, chẳng hạn như chuyển đổi ảnh chụp màn hình hoặc bảng điều khiển thành bản trình bày bao gồm các phần tử vector có thể chỉnh sửa, sắp xếp lại các cuộc họp, lên kế hoạch và đặt các cuộc họp bên ngoài, đồng thời cập nhật dữ liệu tài chính mới trong bảng tính trong khi vẫn giữ nguyên định dạng. Trong cuộc sống cá nhân, bạn có thể sử dụng nó để dễ dàng lên kế hoạch và đặt lịch trình du lịch, thiết kế và đặt toàn bộ bữa tối hoặc tìm chuyên gia và sắp xếp cuộc hẹn. Đánh giá hiệu suất: Mô hình thể hiện hiệu suất hiện đại nhất (SOTA) trong các đánh giá đo lường khả năng duyệt web và hoàn thành nhiệm vụ trong thế giới thực. Trong đánh giá “Humanity’s Last Exam” đo lường hiệu suất của AI trên các vấn đề cấp chuyên gia trên một loạt các chủ đề, mô hình ChatGPT Agent đạt điểm 41,6, thiết lập một SOTA tỷ lệ vượt qua mới. Thông qua một chiến lược triển khai song song đơn giản, điểm HLE của mô hình có thể được cải thiện lên 44,4. Trong bài kiểm tra chuẩn toán học khó nhất FrontierMath, ChatGPT Agent đã đạt được độ chính xác 27,4% bằng cách sử dụng các công cụ (chẳng hạn như thực thi mã terminal).


HN | Độ nóng: 661 điểm | 467 bình luận | Tác giả: Topfi #

https://news.ycombinator.com/item?id=44595492

  • AI có thể mắc lỗi 2% khi xử lý các báo cáo dữ liệu phức tạp, điều này có thể dẫn đến tốn thời gian vào việc tìm kiếm lỗi
  • AI nên được sử dụng như một công cụ hỗ trợ, giúp thu thập và kiểm tra dữ liệu, thay vì hoàn toàn thay thế con người
  • AI trong lập trình đóng vai trò là một công cụ tăng cường, cần có sự xem xét của con người ở mỗi bước để tránh các vấn đề tiềm ẩn
  • So sánh AI với thực tập sinh có thể nâng cao hiệu quả của nhóm, nhưng phải xem xét kỹ lưỡng công việc của nó
  • Mục tiêu của thực tập sinh là giúp họ phát triển, chứ không chỉ là hoàn thành những công việc nhàm chán
  • Công việc của thực tập sinh cần được giám sát, nhưng cũng nên tạo cơ hội cho họ phát triển và học hỏi
  • Mục đích của công ty khi thuê thực tập sinh không chỉ là để giảm chi phí mà còn là để mở rộng nguồn nhân tài về lâu dài, kìm hãm tiền lương
  • Thực tập sinh có thể có năng suất âm đối với công ty lúc ban đầu, nhưng về lâu dài sẽ giúp tăng số lượng ứng viên đủ tiêu chuẩn, tăng cường khả năng thương lượng của nhà tuyển dụng
  • So sánh AI với thực tập sinh bỏ qua giá trị phát triển và giáo dục của thực tập sinh, có thể dẫn đến thiếu hụt nhân viên cấp thấp có kinh nghiệm trong tương lai
  • AI thay thế thực tập sinh có thể dẫn đến nhu cầu tăng cao trong tương lai đối với những người có thể thực sự gỡ lỗi máy tính, những người này sẽ nhận được mức lương cao hơn

Mã hóa hoàn toàn đồng hình và bình minh của một internet riêng tư #

Fully homomorphic encryption and the dawn of a private internet

https://bozmen.io/fhe

Bài viết này thảo luận về mã hóa hoàn toàn đồng hình (Fully Homomorphic Encryption, FHE) và tiềm năng của nó trong việc hiện thực hóa một internet thực sự riêng tư.

Bài viết bắt đầu bằng một trích dẫn của Gene Spafford, nhấn mạnh tầm quan trọng của việc sử dụng công nghệ mã hóa trên internet. Tác giả giới thiệu mã hóa hoàn toàn đồng hình (FHE), một công nghệ cho phép thực hiện các phép tính tùy ý trên dữ liệu đã mã hóa mà không cần giải mã trước. Điều này có nghĩa là, ngay cả khi dữ liệu được mã hóa, các phép tính vẫn có thể được thực hiện và kết quả sau khi giải mã sẽ giống như kết quả khi thực hiện các phép tính trên văn bản gốc.

Bài viết tiếp tục thảo luận về sự phát triển của FHE, gọi đó là “Định luật Moore của FHE”, chỉ ra rằng tốc độ của thuật toán FHE tăng gấp 8 lần mỗi năm, từ 30 phút cho mỗi bit vào năm 2011 đến chỉ còn mili giây hiện tại. Bài viết trình bày sự cải thiện đáng kể về tốc độ của FHE thông qua một biểu đồ và dự đoán rằng nếu sự cải tiến này tiếp tục, FHE sẽ sớm đủ nhanh để được sử dụng cho điện toán đám mây được mã hóa, suy luận mô hình ngôn ngữ lớn (LLM) được mã hóa và hợp đồng thông minh blockchain bảo mật, v.v.

Bài viết nhấn mạnh tác động tiềm tàng của FHE, cho rằng các mô hình kinh doanh dựa trên việc thu thập dữ liệu người dùng có thể trở nên lỗi thời, vì việc gửi văn bản gốc trở nên không cần thiết nếu một dịch vụ khác có thể thực hiện các phép tính trên văn bản mật. Tác giả tin rằng mô hình “gián điệp mặc định” của internet có thể chuyển thành “quyền riêng tư mặc định”.

Bài viết đi sâu vào gót chân Achilles của bảo mật, đó là dữ liệu được giải mã khi đang sử dụng (được xử lý trong bộ nhớ), điều này khiến dữ liệu dễ bị tấn công bởi các nhà cung cấp dịch vụ đám mây, người trong nội bộ, kẻ tấn công hoặc CPU bị xâm phạm. Bài viết đề cập đến cách FHE giải quyết vấn đề này, giúp dữ liệu được mã hóa trong toàn bộ vòng đời đám mây, tác giả gọi đây là “điện toán hoàn toàn riêng tư”.

Khi định nghĩa điện toán hoàn toàn riêng tư, bài viết phác họa một viễn cảnh internet nơi dữ liệu luôn được mã hóa, bao gồm cả khi dữ liệu được lưu trữ, truyền tải và sử dụng. Điều này có nghĩa là thiết bị của người dùng sẽ không bao giờ gửi văn bản gốc đến bất kỳ máy chủ nào, máy chủ chỉ xử lý dữ liệu đã mã hóa và chỉ người dùng mới có thể giải mã kết quả.

Bài viết cũng đi sâu vào các chi tiết kỹ thuật, giải thích cách FHE hoạt động. FHE sử dụng mật mã dựa trên lưới, một mạng lưới các điểm kéo dài vô tận trong không gian đa chiều. Cốt lõi của mật mã dựa trên lưới là một số vấn đề được cho là cực kỳ khó giải quyết ngay cả đối với máy tính lượng tử, chẳng hạn như bài toán vectơ ngắn nhất (SVP) và bài toán vectơ gần nhất (CVP). Những đặc tính này làm cho FHE có khả năng chống lại lượng tử, chuẩn bị cho một tương lai điện toán lượng tử có thể xảy ra.

Cuối cùng, bài viết giới thiệu bài toán học với sai số (LWE), nền tảng của các lược đồ FHE dựa trên lưới. Bài toán LWE liên quan đến một ma trận A đã biết, một khóa bí mật s và nhiễu nhỏ ngẫu nhiên e, tính toán b = As + e, tức là b là một tổ hợp tuyến tính có nhiễu. Khóa công khai được tạo ra là (A, b), và khó khăn là cho khóa công khai (A, b), tìm khóa bí mật s. Bài viết chỉ ra rằng As là tuyến tính, do đó về mặt hình ảnh tạo thành một điểm lưới, và việc thêm nhiễu e làm cho kết quả A*s + e = b lệch khỏi điểm lưới.


HN | Độ nóng: 409 điểm | 185 bình luận | Tác giả: barisozmen #

https://news.ycombinator.com/item?id=44601023

  • Mặc dù tốc độ của mã hóa đồng hình (FHE) đang tăng lên, nhưng FHE dựa trên tự khởi động (bootstrapping) khó có thể đạt được tốc độ như văn bản gốc, vì chi phí tự khởi động ít nhất là gấp 1000 lần.
  • Tăng tốc phần cứng được coi là một cách để cải thiện hiệu suất FHE, nhưng việc quảng bá tăng tốc phần cứng trở nên khó khăn trong bối cảnh tài nguyên tính toán bị chiếm giữ bởi các mô hình ngôn ngữ lớn (LLMs).
  • Trong các ứng dụng như suy luận LLM riêng tư, tính toán phần cứng đáng tin cậy có thể là lựa chọn khả thi duy nhất, mặc dù có vấn đề về việc tin tưởng phần cứng.
  • Độ phức tạp tiệm cận của một số tính toán trên dữ liệu được mã hóa cao hơn nhiều so với dữ liệu văn bản gốc, ví dụ: tìm kiếm cơ sở dữ liệu trên dữ liệu được mã hóa trở thành O(n), trong khi văn bản gốc là O(log n).
  • Về mặt lý thuyết, có một đột phá để tối ưu hóa vấn đề tìm kiếm thành O(log n), nhưng nó không thực tế trong các ứng dụng thực tế.
  • Truy xuất thông tin riêng tư (PIR) là một hình thức tìm kiếm bị hạn chế, có độ phức tạp truy vấn là đa thức logarit (polylog(n)), đòi hỏi tiền xử lý siêu tuyến tính và tăng kích thước cơ sở dữ liệu theo đa thức.
  • Tốc độ của FHE không tự khởi động cũng không bao giờ có thể so sánh với tính toán văn bản gốc, vì mật mã lớn hơn dữ liệu văn bản gốc khoảng ba bậc, đòi hỏi băng thông bộ nhớ và khả năng tính toán lớn hơn.
  • Có các lược đồ mã hóa đồng hình với tỷ lệ -1, trong đó “tỷ lệ” đề cập đến tỷ lệ kích thước giữa văn bản gốc và mật mã, nhưng chúng không thực tế.
  • Lượng dữ liệu lớn trên trang web và lượng tính toán lớn không phải là cùng một khái niệm, FHE cần xử lý dữ liệu mật mã rất lớn, trong khi trang web chỉ cần tải xuống dữ liệu.
  • Lượng dữ liệu mà FHE xử lý lớn hơn khoảng 1000 lần so với văn bản gốc và thời gian xử lý cũng lớn hơn khoảng 1000 lần.
  • Có người sẵn sàng trả chi phí cao hơn cho các dịch vụ bảo mật có thể chứng minh được, ngay cả khi chi phí cao hơn 1000 lần.
  • FHE giải quyết vấn đề bảo mật của nhà cung cấp dịch vụ tính toán và không ảnh hưởng đến các rủi ro bảo mật khác của dịch vụ.
  • Nếu độ trễ của FHE là 1000 lần, thì đây sẽ là một sản phẩm khó bán.
  • Mặc dù Python có thể chậm hơn C++ 400 lần, nhưng mọi người vẫn sử dụng Python vì Python đủ nhanh trong một số trường hợp.
  • Tính hữu dụng của FHE phụ thuộc vào trường hợp sử dụng và giá trị của đầu ra, cũng như ai đang xử lý và giải mã đầu ra cuối cùng.
  • Có nhiều lược đồ khả thi, chẳng hạn như mã hóa lại ủy quyền, chúng hoạt động trên các khóa đối xứng, thay vì trên các khối dữ liệu được mã hóa lớn.
  • Trong các ứng dụng tài chính, các thao tác được thực hiện trên các tập hợp số nguyên nhỏ, tốc độ không phải là vấn đề, giá trị của đầu ra đủ cao để việc sử dụng FHE trở nên xứng đáng.
  • Đối với các hoạt động quân sự, có thể đáng để chờ đợi các quy trình chạy dài để chạy FHE.

Anthropic siết chặt giới hạn sử dụng cho Claude Code mà không thông báo cho người dùng #

Anthropic tightens usage limits for Claude Code without telling users

https://techcrunch.com/2025/07/17/anthropic-tightens-usage-limits-for-claude-code-without-telling-users/

Bài viết này nói về việc công ty trí tuệ nhân tạo Anthropic điều chỉnh giới hạn sử dụng đối với sản phẩm Claude Code của họ, nhưng không thông báo trước cho người dùng.

Kể từ sáng thứ Hai, người dùng Claude Code đã gặp phải những giới hạn sử dụng nghiêm ngặt bất ngờ. Những vấn đề này chủ yếu xuất hiện ở những người dùng dịch vụ nhiều, nhiều người trong số họ đang sử dụng gói Max trị giá 200 đô la mỗi tháng. Người dùng chỉ được thông báo “Đã đạt đến giới hạn sử dụng Claude” và đưa ra một thời gian (thường là trong vài giờ) giới hạn sẽ được đặt lại. Nhưng vì không có thông báo rõ ràng nào về sự thay đổi giới hạn, nhiều người dùng cho rằng đăng ký của họ đã bị hạ cấp hoặc việc sử dụng của họ bị theo dõi sai.

Một người dùng phàn nàn: “Việc theo dõi giới hạn sử dụng của các bạn đã thay đổi và không còn chính xác nữa. Không thể nào một vài yêu cầu trong 30 phút của tôi lại đạt đến 900 tin nhắn.” Khi được liên hệ để bình luận, đại diện của Anthropic xác nhận những vấn đề này, nhưng từ chối cung cấp thêm chi tiết. Đại diện này cho biết: “Chúng tôi biết một số người dùng Claude Code đang gặp phải vấn đề về tốc độ phản hồi chậm và chúng tôi đang nỗ lực giải quyết những vấn đề này.”

Những thay đổi này khiến người dùng lo lắng vì họ không nhận được bất kỳ thông báo nào về những thay đổi trước đó, cũng như không có hướng dẫn nào cho tương lai. Một người dùng giấu tên nói với TechCrunch rằng dự án của anh ấy không thể tiến triển kể từ khi giới hạn sử dụng có hiệu lực. “Nó chỉ đơn giản là ngừng khả năng tiến bộ,” người dùng nói. “Tôi đã thử Gemini và Kimi, nhưng hiện tại thực sự không có gì có thể cạnh tranh với bộ khả năng của Claude Code.”

Những vấn đề này xảy ra đồng thời với các vấn đề rộng hơn trong mạng Anthropic. Nhiều người dùng API đã báo cáo lỗi quá tải trong cùng thời gian, và trang trạng thái của công ty cho thấy sáu vấn đề riêng biệt trong bốn ngày qua. Điều đáng chú ý là mạng vẫn hiển thị 100% thời gian hoạt động trong tuần này.

Mặc dù lỗi tải rất phổ biến, nhưng phương pháp mới của Anthropic đối với giới hạn sử dụng đã gây ra sự nhầm lẫn đáng kể cho người dùng, nhiều người không biết rằng họ đang bị giới hạn sử dụng. Một phần sự nhầm lẫn đến từ hệ thống định giá của Anthropic, hệ thống này đặt ra các giới hạn theo tầng, nhưng chưa bao giờ đảm bảo một mức độ truy cập nhất định. Gói Max đắt nhất, trị giá 200 đô la mỗi tháng, hứa hẹn giới hạn sử dụng cao hơn 20 lần so với đăng ký Pro. Đổi lại, gói Pro cung cấp giới hạn gấp năm lần so với gói miễn phí. Nhưng Anthropic cho biết giới hạn người dùng miễn phí “sẽ thay đổi tùy theo nhu cầu” và không đặt ra giá trị tuyệt đối. Kết quả là người dùng không thể lên kế hoạch xung quanh giới hạn sử dụng, vì họ không rõ khi nào dịch vụ sẽ bị giới hạn.

Bài viết cũng đề cập rằng gói Max trị giá 200 đô la đặc biệt phổ biến đối với những người dùng dịch vụ nhiều, một số người cho rằng gói này không bền vững về lâu dài đối với Anthropic. Một người dùng mà chúng tôi phỏng vấn cho biết, gói này thường cho phép anh ta thực hiện các cuộc gọi trị giá hơn 1000 đô la mỗi ngày (tính theo giá API). Do đó, anh ấy không ngạc nhiên khi giới hạn sử dụng trở nên nghiêm ngặt hơn - nhưng anh ấy hy vọng công ty sẽ truyền đạt những thay đổi này rõ ràng hơn.

“Chỉ cần minh bạch,” anh nói. “Việc thiếu giao tiếp chỉ khiến mọi người mất niềm tin vào họ.”

Bài viết kết thúc bằng việc đề cập rằng Russell Brandom là một nhà văn tự do có trụ sở tại New York, người đã viết bài viết này.


HN | Độ nóng: 384 điểm | 237 bình luận | Tác giả: mfiguiere #

https://news.ycombinator.com/item?id=44598254

  • Một số người dùng không hài lòng vì Anthropic đột ngột hạn chế việc sử dụng Claude mà không thông báo cho người dùng.
  • Việc phụ thuộc vào các dịch vụ của bên thứ ba tiềm ẩn rủi ro, có thể dẫn đến việc dự án không thể tiếp tục.
  • Các nhà phát triển hiểu mã được tạo ra, ngay cả khi công cụ biến mất, cũng chỉ làm chậm tiến độ, chứ không cản trở công việc.
  • Có nhiều công cụ và mô hình cạnh tranh để lựa chọn, nếu một công cụ không khả dụng, có thể chuyển sang công cụ khác.
  • Claude có thể hoàn thành một lượng lớn công việc một cách nhanh chóng, hiệu quả hơn so với các phương pháp truyền thống.
  • Các công cụ lập trình AI được coi là một sự thay đổi lớn trong lĩnh vực lập trình.
  • Ngay cả khi các công cụ AI làm chậm tốc độ của các nhiệm vụ riêng lẻ trong nghiên cứu, chúng cũng có thể làm giảm gánh nặng nhận thức và sự kiệt sức nghề nghiệp lâu dài.
  • Người dùng cần cân nhắc chi phí và lợi ích của việc sử dụng Claude, ngay cả khi có giới hạn sử dụng, nó vẫn tốt hơn là không sử dụng gì cả.
  • Vấn đề với trình biên dịch trả phí nằm ở hỗ trợ dài hạn và lộ trình nâng cấp trong quá trình phát triển ngôn ngữ, chứ không phải là tính vĩnh viễn của chính trình biên dịch.
  • Trình biên dịch trả phí và phần mềm yêu cầu dongle cấp phép vẫn tồn tại, đặc biệt là trong lĩnh vực phát triển nhúng.
  • Nhiều công ty chọn sử dụng trình biên dịch trả phí và chuỗi công cụ của nhà cung cấp vì chúng cung cấp hỗ trợ phần cứng và chức năng gỡ lỗi tốt hơn.
  • Giấy phép và đăng ký trả phí không chỉ là dịch vụ mà còn bao gồm mối quan hệ với nhà cung cấp, điều này rất quan trọng đối với các công ty.
  • Đối với cá nhân, dịch vụ đăng ký có thể không lý tưởng vì họ không cần thiết lập thêm mối quan hệ với nhà cung cấp dịch vụ.

Trải nghiệm của tôi với Claude Code sau hai tuần phiêu lưu #

My experience with Claude Code after two weeks of adventures

https://sankalp.bearblog.dev/my-claude-code-experience-after-2-weeks-of-usage/

Bài viết mới nhất trên blog của Sankalp giới thiệu trải nghiệm của anh ấy khi sử dụng Claude Code (CC). Bài viết bắt đầu từ ngày 17 tháng 7, kể về cuộc phiêu lưu của Sankalp trong hai tuần.

Bài viết mở đầu bằng việc Sankalp đề cập rằng công cụ Cursor mà anh ấy sử dụng trước đây bắt đầu thực hiện giới hạn yêu cầu, điều này khiến anh ấy phải tìm kiếm các giải pháp thay thế. Anh ấy đề cập rằng, mặc dù trước đây có thể sử dụng yêu cầu API gần như không giới hạn, nhưng sau đó anh ấy phải chấp nhận giới hạn. Anh ấy thừa nhận rằng trước đây có thể đã sử dụng Cursor quá mức, nhưng không cảm thấy khó chịu về giới hạn. Anh ấy cũng đề cập rằng, hiện tại chỉ khi sử dụng chức năng mô hình tự động mới có thể được sử dụng không giới hạn, nhưng cá nhân anh ấy chỉ tin tưởng Sonnet 4 và mô hình o3, vì chúng thể hiện xuất sắc trong việc tìm kiếm proxy và tạo mã.

Sankalp cũng đề cập rằng anh ấy không tin tưởng lắm vào Gemini Pro 2.5 và GPT-4.1, mặc dù anh ấy thỉnh thoảng vẫn sử dụng hai mô hình này. Anh ấy đặc biệt đề cập rằng Opus 4 rất hữu ích trong việc giải quyết các vấn đề mà Sonnet 4 khó giải quyết. Anh ấy đã từng chuyển sang Claude Code vì giới hạn yêu cầu API của Cursor, vì sử dụng Claude Code có thể nhận được khoản tín dụng API trị giá 100 đô la với giá 20 đô la.

Trong bài viết, Sankalp mô tả cách anh ấy bắt đầu sử dụng Claude Code. Anh ấy đã có đăng ký 20 đô la và bắt đầu sử dụng Claude Code chỉ cung cấp Sonnet 4 thông qua đăng ký. Anh ấy đã cài đặt CC trong Cursor, vì quy trình làm việc đánh giá mã của Cursor rất tiện lợi, anh ấy không thể từ bỏ. Anh ấy cũng đề cập rằng, đôi khi anh ấy cần sử dụng o3, Grok 4 hoặc các mô hình mới khác, hoặc cần định dạng mã, vì việc giữ đúng định dạng khi sao chép vẫn còn khó khăn.

Sankalp chia sẻ quy trình làm việc hiện tại của mình, ban đầu anh ấy chỉ nhập lệnh để thực hiện thay đổi, nhìn màn hình từ từ tìm tệp và thực hiện chỉnh sửa. Anh ấy đã mất 2-3 ngày để tin tưởng mô hình này, mặc dù nó là Sonnet 4. Sau khi đã tạo được lòng tin, anh ấy bắt đầu khám phá thêm nhiều lệnh và nỗ lực nắm vững các lệnh cơ bản. Anh ấy khuyên bạn nên sử dụng Shift+Tab để chuyển đổi giữa chế độ lập kế hoạch và chế độ chỉnh sửa tự động, lấy kế hoạch từ Opus, sau đó hoàn thành 80-90% nhiệm vụ bằng Sonnet 4.

Bài viết cũng thảo luận về quản lý ngữ cảnh cơ bản, Sankalp đề cập rằng, khi Claude Code hiển thị X% cho đến khi nén xảy ra, anh ấy sẽ bắt đầu một cuộc trò chuyện mới và nói với Claude ghi lại những điểm quan trọng trong tệp. Đôi khi anh ấy sẽ thực hiện nén để giữ lại một số ngữ cảnh, nhưng thường thì không, vì việc nén cần một chút thời gian để hoàn thành.

Sankalp cũng đề cập đến lý do tại sao Sonnet trong Claude Code có cảm giác tốt hơn so với trong Cursor. Anh ấy cho rằng Claude Code có thể được hậu huấn luyện bằng các công cụ mà nó hiện đang sử dụng, vì vậy nó thoải mái hơn trong khuôn khổ hiện tại. Anh ấy cũng đề cập rằng, Claude Code có thể quản lý ngữ cảnh tốt hơn, trong khi Cursor có thể nén hoặc tối ưu hóa ngữ cảnh (suy đoán), Claude có thể trực tiếp đọc các dòng ở dạng thô. Anh ấy cũng cảm thấy CC có thể sử dụng token hiệu quả hơn.

Cuối cùng, Sankalp đề cập đến các sub-agent của Claude, khi anh ấy nhìn thấy danh sách việc cần làm dễ thương, đó là lúc các sub-agent của Claude đang hoạt động. Anh ấy không biết những sub-agent này được tạo ra như thế nào, nhưng điều này ở một mức độ nào đó giúp quản lý ngữ cảnh tốt hơn. Anh ấy cũng đề cập đến chức năng tìm kiếm, Cursor cho phép mô hình thực hiện tìm kiếm thông thường và tìm kiếm ngữ nghĩa, trong khi tìm kiếm proxy là để mô hình tự khám phá cơ sở mã và tự do sử dụng các công cụ như grep, ripgrep, v.v.


HN | Độ nóng: 373 điểm | 352 bình luận | Tác giả: dejavucoder #

https://news.ycombinator.com/item?id=44596472

  • Có người cho rằng trải nghiệm sử dụng Claude Code không tốt bằng Cursor, đường cong học tập dốc và hiệu quả thấp.
  • Có người cho rằng khó khăn trong phát triển phần mềm nằm ở việc gắn kết các ý tưởng lại với nhau, chứ không phải viết code.
  • Có người cho rằng code do AI tạo ra tuy có thể hoạt động, nhưng thiếu tính bền vững và chất lượng kỹ thuật phù hợp.
  • Có người cho rằng sử dụng Claude Code hiệu quả hơn Cursor, vì nó ít thực hiện các thay đổi không cần thiết hơn.
  • Có người thích việc Claude Code chỉ hiển thị một file/thay đổi tại một thời điểm, giúp việc xem xét dễ dàng hơn.
  • Có người cho rằng mô tả của Claude Code thường xuất hiện sau khi thay đổi, chứ không phải trước đó, điều này bất lợi cho việc ra quyết định.
  • Có người gợi ý thử Amp, một agent không yêu cầu xem xét mỗi khi chỉnh sửa, và có extension VS Code.
  • Có người cho rằng AI có thể phá vỡ giai đoạn tung sản phẩm ra thị trường nhanh chóng, nhưng vẫn cần các phương pháp thực hành kỹ thuật phù hợp.
  • Có người cho biết Claude Code không tự động commit tất cả các thay đổi, điều này giúp việc hoàn tác các thay đổi trở nên dễ dàng hơn.
  • Có người cộng tác với Claude Code thông qua file TODO.md, cảm thấy như đang lập trình nhưng không cần tự viết code hoặc chạy lệnh.

lsr: ls với io_uring #

lsr: ls with io_uring

https://rockorager.dev/log/lsr-ls-but-with-io-uring/

Bài viết này giới thiệu một công cụ mới có tên là lsr, là một sự thay thế cho lệnh ls mà tác giả đã hiện thực bằng cách sử dụng thư viện IO ourio, nhằm mục đích giảm thiểu các систем вызовы và nâng cao hiệu suất. Tác giả đã so sánh hiệu suất của lsr với các phiên bản khác của lệnh ls và các sản phẩm thay thế, từ đó cho thấy ưu điểm của lsr.

Điểm chuẩn: Bài viết bắt đầu bằng cách trình bày hiệu suất của lsr thông qua các điểm chuẩn. Thử nghiệm sử dụng công cụ hyperfine để so sánh thời gian thực thi của lsr với các lệnh khác dưới số lượng tệp khác nhau. Kết quả cho thấy lsr nhanh hơn ls, eza, lsd và uutils ls trong tất cả các thử nghiệm. Ví dụ: trong một thư mục có 10 tệp, thời gian thực thi của lsr là 372,6 micro giây, trong khi thời gian thực thi của ls là 1,4 mili giây. Khi số lượng tệp tăng lên, lợi thế về hiệu suất của lsr càng trở nên rõ ràng hơn. Системные вызовы: Bài viết cũng thống kê số lượng системных вызовов của các lệnh khác nhau thông qua công cụ strace. Kết quả cho thấy số lượng системных вызовов của lsr thấp hơn nhiều so với các lệnh khác, đặc biệt khi số lượng tệp lớn, số lượng системных вызовов của lsr ít hơn các lệnh khác một bậc. Nguyên lý hoạt động của lsr: Bài viết tiếp tục giải thích nguyên lý hoạt động của lsr, nó được chia thành ba giai đoạn: phân tích cú pháp tham số, thu thập dữ liệu và in dữ liệu. Trong giai đoạn thu thập dữ liệu, lsr cố gắng sử dụng io_uring để lấy dữ liệu cần thiết, bao gồm mở thư mục đích, đọc thời gian cục bộ, dữ liệu người dùng và dữ liệu nhóm, cũng như thực hiện lệnh gọi stat. Điều này làm giảm đáng kể số lượng системных вызовов của lsr, vì nó có thể thực hiện hàng loạt системные вызовы stat. Phân bổ bộ nhớ: Tác giả cũng đề cập rằng lsr sử dụng StackFallbackAllocator trong thư viện chuẩn zig, cho phép lsr phân bổ trước bộ nhớ và quay trở lại bộ phân bổ khác khi hết phân bổ cố định. Chiến lược phân bổ bộ nhớ này tiếp tục giảm số lượng системных вызовов, vì nó giảm việc sử dụng mmap. Các vấn đề liên quan đến libc: Do sử dụng trực tiếp io_uring, lsr tránh được một số vấn đề liên quan đến libc, chẳng hạn như chi phí liên kết động. Mặc dù lsr được liên kết tĩnh, nhưng kích thước của nó vẫn nhỏ hơn GNU ls. Ngoại lệ và suy nghĩ: Tác giả bày tỏ sự khó hiểu về hành vi của lsd, vì nó gọi clock_gettime khoảng 5 lần trên mỗi tệp, không rõ lý do. Tác giả phỏng đoán rằng đây có thể là bước tính thời gian bên trong của lsd. Tầm quan trọng của việc sắp xếp: Bài viết chỉ ra rằng việc sắp xếp là một phần quan trọng trong khối lượng công việc của lệnh ls, và tác giả nghi ngờ rằng đây là lý do khiến hiệu suất của uutils ls giảm. Khoảng 30% thời gian chạy của lsr được sử dụng để sắp xếp, thời gian còn lại được sử dụng cho vòng lặp IO. Trải nghiệm dự án: Tác giả cho rằng dự án này rất thú vị và thời gian phát triển không dài. Anh ấy ngạc nhiên về khả năng giảm số lượng системных вызовов của io_uring, và tin rằng điều này có thể có tác động lớn hơn trong các tình huống như máy chủ. Công cụ dự án: Cuối cùng, tác giả đề cập rằng anh ấy đã sử dụng tangled.sh để quản lý dự án này và mời độc giả truy cập kho lưu trữ của dự án nếu có lỗi hoặc yêu cầu thay đổi. Tác giả cũng đề cập rằng nếu cần thêm biểu tượng, bạn có thể gửi yêu cầu issue.

Nói chung, bài viết này trình bày chi tiết những ưu điểm về hiệu suất, nguyên lý hoạt động, chiến lược quản lý bộ nhớ và các vấn đề liên quan đến libc của lsr, đồng thời chia sẻ một số suy nghĩ và kinh nghiệm của tác giả trong quá trình phát triển dự án này.


HN | Độ nóng: 296 điểm | 152 bình luận | Tác giả: mpweiher #

https://news.ycombinator.com/item?id=44604050

  • io_uring có thể cải thiện hiệu quả và giảm độ trễ khi chương trình xử lý một lượng lớn tệp
  • Khả năng tương thích của chương trình trong nhiều môi trường khác nhau tỷ lệ nghịch với tốc độ của nó, lệnh ls gốc của UNIX thực thi rất nhanh vì nó không có xử lý ký tự và siêu dữ liệu phức tạp
  • io_uring cũng có lợi cho các ứng dụng đơn luồng, có thể sử dụng nhóm luồng kernel để thực hiện các tác vụ đồng thời
  • Công cụ find cũng có thể hưởng lợi từ io_uring
  • Dự án bfs cũng sử dụng io_uring và đang xem xét sử dụng nó ở chế độ đơn luồng
  • grepripgrep cũng có thể hưởng lợi từ io_uring, nhưng ripgrep hiện không sử dụng io_uring, chủ yếu là do việc triển khai phức tạp và hiệu suất tăng lên hạn chế
  • io_uring hiện không hỗ trợ getdents, điều này có nghĩa là chỉ có thể thực hiện các lệnh gọi stat() không đồng bộ, và không thể xử lý các thao tác khác
  • Trên thang thời gian cực ngắn, việc sử dụng tim thay vì hyperfine có thể phù hợp hơn
  • Tác giả cho rằng việc liên kết C/C++ vào dự án như một con đường để di chuyển sang Zig là một ý tưởng hay
  • Việc tăng tốc độ của lệnh GNU ls một phần là do thiếu các tính năng bản địa hóa, hỗ trợ bản địa hóa sẽ làm tăng độ phức tạp của việc sắp xếp
  • Thiết kế của NFS không tính đến các vấn đề cụ thể của hệ thống phân tán như khởi động lại máy chủ, trong khi các hệ thống tệp mạng hiện đại (như HTTP/GRPC) cho phép máy khách tự quyết định cách xử lý các yêu cầu và xử lý lỗi không thành công

Tất cả các mô hình AI có thể giống nhau #

All AI models might be the same

https://blog.jxmo.io/p/there-is-only-one-model

Bài viết này khám phá vấn đề “tính phổ quát” trong các mô hình trí tuệ nhân tạo, tức là liệu các mô hình AI khác nhau có thể học được một ngôn ngữ chung hay không. Bài viết bắt đầu bằng cách giới thiệu khái niệm về sự hiểu biết ngữ nghĩa chung của con người thông qua một trò chơi có tên là “Mussolini hoặc Bánh mì”, và đưa ra quan điểm rằng bộ não của chúng ta xây dựng các mô hình thế giới phức tạp, những mô hình này rất giống nhau giữa những người khác nhau, cho phép chúng ta thu hẹp phạm vi khái niệm bằng cách liên tục tinh chỉnh các câu hỏi.

Bài viết tiếp tục giải thích trí tuệ nhân tạo từ góc độ nén, cho rằng chúng ta đang học cách nén tất cả dữ liệu trên thế giới. Nhiệm vụ của mô hình ngôn ngữ có thể được coi là một nhiệm vụ nén, bởi vì việc dự đoán từ tiếp theo có thể được xem như là một hình thức nén dữ liệu. Khi các mô hình ngôn ngữ lớn hơn và tốt hơn cung cấp phân phối xác suất thế giới chính xác hơn, chúng ta thấy rằng các mô hình có thể nén dữ liệu thực tốt hơn sẽ hiểu biết nhiều hơn về thế giới, do đó tồn tại tính nhị nguyên giữa nén và trí thông minh.

Bài viết đưa ra “Giả thuyết Biểu diễn Plato” (Platonic Representation Hypothesis), một lý thuyết được một nhóm các nhà nghiên cứu từ MIT đưa ra vào năm 2024, cho rằng khi các mô hình trở nên lớn hơn, chúng đang học ngày càng nhiều các đặc trưng giống nhau, và cung cấp bằng chứng trong lĩnh vực thị giác và ngôn ngữ. Giả thuyết này cho thấy rằng các mô hình đang hội tụ về một không gian biểu diễn chung, và điều này trở nên đúng hơn khi chúng ta tạo ra các mô hình lớn hơn và thông minh hơn.

Cuối cùng, bài viết thảo luận ngắn gọn về vấn đề đảo ngược nhúng, tức là cho một vector biểu diễn của mạng nơ-ron, liệu chúng ta có thể suy ra văn bản nào đã được nhập vào mạng hay không. Bài viết trình bày một ví dụ trực quan về một mạng, cho thấy rằng ngay cả khi chỉ có 1000 dự đoán xác suất loại, nó vẫn có thể tái tạo hình ảnh một cách đáng kinh ngạc, điều này cho thấy sự phức tạp và thách thức của vấn đề đảo ngược nhúng.


HN | Độ nóng: 293 điểm | 143 bình luận | Tác giả: jxmorris12 #

https://news.ycombinator.com/item?id=44595811

  • Con người có sự đồng thuận về các khái niệm cơ bản như “chó”, “nhà”, “người”, “thuyền”, ngay cả khi họ lớn lên ở những nơi khác nhau và chưa từng có kinh nghiệm quan sát chung.
  • Con người có sự khác biệt lớn về khái niệm “tốt” hoặc “công bằng” trong các tình huống cụ thể, ví dụ như quan điểm về các vấn đề đạo đức như phá thai, trợ tử, thí nghiệm trên động vật, v.v.
  • Con người có sự khác biệt cơ bản trong cách hiểu một số từ như “tự do”, “kinh tế”, “chính phủ”, mặc dù sử dụng cùng một ngữ pháp.
  • Thực tế và các định luật vật lý mà con người chia sẻ giới hạn sự hiểu biết về một số điều, nhưng điều đó không có nghĩa là tất cả mọi người đều độc lập đạt đến các dạng thức Plato giống nhau.
  • Con người có sự khác biệt trong cách hiểu một số khái niệm văn hóa, nhưng điều này không ảnh hưởng đến việc chúng là một phần của thực tế.
  • Nếu muốn mô phỏng thực tế một cách hoàn toàn chính xác, cần phải hiểu những thứ như cuộc đua ngựa Kentucky Derby, ngay cả khi chúng là những phát minh văn hóa.
  • Mô hình có thể đang tiến gần đến biểu hiện của các dạng thức lý tưởng Plato, nhưng liệu nó có đúng hay không và liệu mô hình có thể đạt đến mức độ đó hay không là một vấn đề khác.
  • Con người có thể chia sẻ mô hình thống kê về thực tế, ngay cả khi một số khái niệm không thể được diễn đạt bằng một ngôn ngữ cụ thể hoặc tiếng bập bẹ của trẻ sơ sinh.
  • Các mô hình trí tuệ nhân tạo có thể không tìm thấy những chân lý nội tại mà chúng ta bỏ qua trong tập dữ liệu của chúng, cũng như không phát hiện ra các vấn đề về khả năng tái tạo của các bài báo khoa học.
  • Các mô hình trí tuệ nhân tạo có thể không phát hiện ra các vấn đề của các bài báo khoa học, chúng vẫn là công cụ, tuân theo nguyên tắc “rác vào rác ra” (garbage in, garbage out).
  • Các mô hình hiện tại sử dụng học tăng cường để huấn luyện, điều này có thể cải thiện khả năng suy luận và logic của chúng tốt hơn so với dữ liệu bị ô nhiễm của con người.
  • Các mô hình trí tuệ nhân tạo có thể đang tiến gần đến mô hình thống kê của dữ liệu huấn luyện của chúng, chứ không phải mô hình thống kê của thực tế.

NIH rẻ hơn so với dependency sai #

NIH is cheaper than the wrong dependency

https://lewiscampbell.tech/blog/250718.html

Bài viết này thảo luận về một số hiểu lầm phổ biến về sự phụ thuộc trong lập trình và đưa ra một khuôn khổ để đánh giá sự phụ thuộc.

Bài viết trước hết chỉ ra rằng nhiều người cho rằng sự phụ thuộc không có nhược điểm, có thể nhận được miễn phí các chức năng mà không cần tự viết. Nhưng trên thực tế, sự phụ thuộc có chi phí. Sự phụ thuộc có thể tốn nhiều thời gian để học cách sử dụng, đôi khi tự viết chức năng còn nhanh hơn học cách sử dụng sự phụ thuộc. Các thay đổi mang tính phá hoại của sự phụ thuộc có thể dẫn đến việc cần phải viết lại mã của bạn để thích ứng với các giao diện mới. Bạn cũng cần đảm bảo rằng sự phụ thuộc cuối cùng xuất hiện trên máy khách.

Bài viết lấy Tigerbeetle làm ví dụ, đây là một cơ sở dữ liệu tài chính được viết hoàn toàn bằng ngôn ngữ Zig thuần túy, nó không có sự phụ thuộc nào khác ngoài chuỗi công cụ Zig. Sự phụ thuộc thường dẫn đến các cuộc tấn công chuỗi cung ứng, rủi ro về bảo mật và hiệu suất cũng như cài đặt chậm. Đối với cơ sở hạ tầng, bất kỳ chi phí nào của sự phụ thuộc sẽ được khuếch đại hơn nữa trong toàn bộ ngăn xếp.

Bài viết đưa ra rằng các công cụ cũng có chi phí. Một hộp công cụ nhỏ, tiêu chuẩn hóa sẽ đơn giản hơn một loạt các công cụ chuyên dụng, mỗi công cụ đều có sách hướng dẫn chuyên dụng. Công cụ chính của bài viết là Zig, mặc dù nó có thể không phải là tốt nhất, nhưng nó đủ tốt cho hầu hết mọi thứ. Tác giả đầu tư vào các công cụ Zig để đảm bảo có thể nhanh chóng giải quyết các vấn đề mới, đồng thời giảm thiểu sự phức tạp không mong muốn trong môi trường phát triển cục bộ.

Tiếp theo, bài viết giới thiệu một khuôn khổ để đánh giá sự phụ thuộc, bao gồm năm loại: tính phổ biến, tính ổn định, độ sâu, công thái học và tính kín. Các nhà cung cấp sự phụ thuộc thường chỉ nói về công thái học, trong khi bỏ qua các tiêu chí khác.

Bài viết đánh giá một số sự phụ thuộc tốt, chẳng hạn như các lệnh gọi hệ thống POSIX, mã điều khiển thiết bị đầu cuối ECMA-48 và nền tảng Web (Web API, HTML, JS, CSS, v.v.), chúng hoạt động tốt về tính phổ biến, tính ổn định, độ sâu, công thái học và tính kín.

Cuối cùng, bài viết để việc đánh giá các sự phụ thuộc xấu làm bài tập cho người đọc, nhắc nhở người đọc phải suy nghĩ phản biện, đánh giá chi phí và lợi ích của sự phụ thuộc và lựa chọn một cách khôn ngoan.


HN | Độ nóng: 286 điểm | 184 bình luận | Tác giả: todsacerdoti #

https://news.ycombinator.com/item?id=44600594

  • TigerBeetle là một ví dụ, đối với các hệ thống yêu cầu hiệu năng cao và tính bảo mật, việc không phụ thuộc vào các dependency bên ngoài là hợp lý.
  • Phần lớn các hệ thống nghiệp vụ do các nhà phát triển viết không có chất lượng cao, các dependency có thể có chất lượng tốt hơn mã mà họ tự viết.
  • Sự phát triển của công ty bị giới hạn bởi trình độ nhân tài mà họ có thể tuyển dụng và giữ chân, các tiêu chuẩn phát triển nội bộ phản ánh trình độ trung bình của nhân viên.
  • Thư viện dependency không phải là vấn đề lớn, nếu có vấn đề có thể viết lại code, nhưng việc phụ thuộc vào hệ thống bên dưới thì khó thay đổi.
  • Một số nhóm có thể có khả năng sao chép và sửa chữa các chức năng của dependency xấu, nhưng không phải tất cả các nhóm đều có khả năng này.
  • Việc lựa chọn dependency không phù hợp có thể dẫn đến hiệu quả làm việc của nhóm bị giảm sút, ngay cả công việc CRUD cũng có thể bị ảnh hưởng.
  • Vấn đề “không phải do tôi phát minh” (NIH) trong phát triển phần mềm, vì phần mềm không có chi phí sản xuất ban đầu rõ ràng, nhưng nó vẫn tồn tại.
  • Sự khác biệt hóa nghiệp vụ cốt lõi là nơi nên sử dụng tài nguyên kỹ thuật, không nên dễ dàng nội bộ hóa các dependency chung.
  • Phát triển phần mềm có tính độc đáo riêng, so với các lĩnh vực như kỹ thuật điện, chi phí ban đầu của phần mềm không rõ ràng, nhưng nó vẫn tồn tại.
  • AI có thể thay đổi cách tính toán này.
  • Nhiều nhà phát triển chuyên nghiệp đều ở mức trung bình, kỹ năng tuân theo đường cong Gauss, HN là một bong bóng, thế giới vận hành ở mức “bình thường”.
  • Trung bình không có nghĩa là mức thấp nhất, nhiều nhà phát triển “bình thường” cũng có thể hoàn thành các nhiệm vụ mà HN tuyên bố chỉ những nhà phát triển hàng đầu mới có thể hoàn thành.
  • Mọi người chỉ quan tâm đến việc có nghĩa vụ pháp lý, sở thích cá nhân hoặc sự phụ thuộc vào một thư viện cụ thể hay không, chứ không phải là áp dụng toàn diện các thảo luận này.
  • TigerBeetle áp dụng hoàn toàn triết lý này, bởi vì mục tiêu của họ không chỉ là cung cấp phần mềm an toàn hơn mà còn nhanh hơn, xem xét tổng chi phí sở hữu.

NYPD lách lệnh cấm nhận diện khuôn mặt để xác định danh tính người biểu tình sinh viên ủng hộ Palestine #

NYPD bypassed facial recognition ban to ID pro-Palestinian student protester

https://www.thecity.nyc/2025/07/18/nypd-fdny-clearview-ai-ban-columbia-palestinian-protest/

Bài viết này là một báo cáo về cách Sở Cảnh sát New York (NYPD) đã lách lệnh cấm nhận diện khuôn mặt để xác định một người biểu tình ủng hộ Palestine. Bài viết được viết bởi Samantha Maldonado và được xuất bản vào ngày 18 tháng 7 năm 2025.

Sự việc bắt nguồn từ việc một sĩ quan cảnh sát cứu hỏa của Sở Cứu hỏa Thành phố New York (FDNY) đã sử dụng phần mềm nhận diện khuôn mặt để giúp các thám tử NYPD xác định một người biểu tình ủng hộ Palestine tại Đại học Columbia, một hành động lách các chính sách hạn chế việc sử dụng công nghệ này của sở cảnh sát. Chi tiết về sự sắp xếp này đã được tiết lộ trong một phán quyết gần đây của một thẩm phán Tòa án Hình sự Manhattan và một vụ kiện do Hiệp hội Hỗ trợ Pháp lý đệ trình trong tháng này, đại diện cho người biểu tình Zuhdi Ahmed, một sinh viên CUNY 21 tuổi dự bị y khoa, sắp bước vào năm cuối đại học.

Cảnh sát, khi tìm kiếm một thanh niên bị cáo buộc ném đá vào những người biểu tình ủng hộ Israel trong một cuộc xung đột xảy ra vào tháng 4 năm 2024 tại Đại học Columbia, đã xác định thành công Ahmed thông qua sự giúp đỡ của FDNY và việc sử dụng phần mềm Clearview AI. FDNY đã sử dụng Clearview AI từ tháng 12 năm 2022 và đã ký hợp đồng hàng năm với công ty này.

Sĩ quan cảnh sát cứu hỏa cũng đã truy cập các hồ sơ của Sở Quản lý Xe cơ giới thường không có sẵn cho cảnh sát, điều này đã được tiết lộ trong hồ sơ tòa án. Biện lý quận Manhattan Alvin Bragg đã truy tố Ahmed với tội tấn công cấp độ ba vì tội ác thù hận, một trọng tội, sau đó giảm xuống thành tội quấy rối nghiêm trọng cấp độ hai, một tội nhẹ. Vào tháng 6, một thẩm phán tòa án hình sự đã bác bỏ vụ kiện chống lại Ahmed và đưa ra cảnh báo trong một phán quyết dài dòng về việc chính phủ giám sát và vi phạm các chính sách thực thi pháp luật.

Clearview AI là một công nghệ nhận diện khuôn mặt được các cơ quan thực thi pháp luật sử dụng rộng rãi, bao gồm cả Bộ Tư pháp, công nghệ này đối chiếu các bức ảnh được tải lên hệ thống với cơ sở dữ liệu hàng tỷ hình ảnh từ mạng xã hội và các trang web khác. NYPD trước đây đã sử dụng công nghệ này, nhưng hiện bị cấm sử dụng theo chính sách nhận diện khuôn mặt năm 2020, chính sách này giới hạn việc tìm kiếm hình ảnh chỉ đối với ảnh chụp khi bắt giữ và quản chế.

Luật thành phố tiếp theo, được gọi là Đạo luật POST, yêu cầu NYPD báo cáo công khai việc sử dụng và các chính sách về công nghệ giám sát. Bộ phận Điều tra của Thành phố New York phát hiện ra rằng NYPD không phải lúc nào cũng tuân thủ. Các thành viên hội đồng thành phố cho biết họ đang soạn thảo luật mới để lấp đầy các lỗ hổng trong Đạo luật POST.

Những bức ảnh trên mạng xã hội mà FDNY đã sử dụng để xác định Ahmed bao gồm những bức ảnh anh chụp trong các sự kiện trang trọng ở trường trung học, các vở kịch ở trường và lễ tốt nghiệp trung học của anh. Ahmed, một người Palestine đến từ Westchester, người đã tham gia các cuộc biểu tình với gia đình từ khi còn nhỏ, cho biết kể từ khi bị bắt, anh đã nhận được những email và tin nhắn trực tuyến đầy thù hận. Anh chưa bao giờ nghĩ rằng những bức ảnh thời niên thiếu của mình lại bị sử dụng theo cách này.

Những người ủng hộ quyền riêng tư đồng ý với điều này. Albert Fox Cahn, giám đốc điều hành của Dự án Giám sát Công nghệ, cho biết: “NYPD tiếp tục sử dụng các công ty đáng lo ngại này để theo dõi người dân New York, đồng thời che giấu hành vi giám sát này, vi phạm luật pháp của Thành phố New York. FDNY rõ ràng đang giúp NYPD lạm dụng quyền lực.”

NYPD đã chuyển yêu cầu bình luận của THE CITY cho FDNY. Trong một tuyên bố, một phát ngôn viên của FDNY cho biết các sĩ quan cảnh sát cứu hỏa được chấp thuận có thể truy cập Clearview AI và hợp tác chặt chẽ với NYPD để điều tra tội phạm. “Đội đặc vụ thực thi pháp luật tinh nhuệ nhỏ bé của chúng tôi sử dụng phần mềm nhận diện khuôn mặt như một trong nhiều công cụ để tiến hành các cuộc điều tra hỏa hoạn quan trọng và chúng tôi luôn tuân thủ tất cả luật pháp địa phương, tiểu bang và liên bang.”

Shane Ferro, một luật sư thuộc bộ phận pháp chứng kỹ thuật số của Hỗ trợ Pháp lý, người đã đại diện cho Ahmed, đã cố gắng tìm hiểu thêm thông tin về công nghệ nhận diện khuôn mặt mà FDNY đang vận hành, nhưng các yêu cầu theo Đạo luật Tự do Thông tin của New York (FOIL) đã không được phản hồi. Hỗ trợ Pháp lý đã đệ đơn kiện vào tuần trước để cố gắng lấy được thông tin này.

Hiện tại vẫn chưa rõ liệu NYPD có chỉ dựa vào FDNY trong trường hợp này để lách lệnh cấm Clearview của sở cảnh sát hay không.


HN | Độ nóng: 277 điểm | 163 bình luận | Tác giả: dataflow #

https://news.ycombinator.com/item?id=44604328

  • Sở cứu hỏa sở hữu công nghệ nhận diện khuôn mặt vì có thể nhận được miễn phí và lách các hạn chế đối với việc cảnh sát sử dụng công nghệ nhận diện khuôn mặt.
  • Sở cảnh sát sử dụng công nghệ nhận diện khuôn mặt thông qua bên thứ ba (như sở cứu hỏa), đây là một phương pháp phổ biến để lách lệnh cấm nhận diện khuôn mặt.
  • Sở cứu hỏa có thể cần xác định danh tính những người tại hiện trường khi điều tra các vụ cháy đáng ngờ, do đó có quyền truy cập vào công nghệ nhận diện khuôn mặt.
  • Việc sử dụng công nghệ nhận diện khuôn mặt chỉ nên giới hạn cho các cơ quan thực thi pháp luật và phải tuân theo các hướng dẫn nghiêm ngặt.
  • Sở cứu hỏa nên tập trung vào việc chữa cháy, thay vì điều tra tội phạm, việc điều tra tội phạm nên được cảnh sát thực hiện dưới sự hướng dẫn pháp lý nghiêm ngặt.
  • Vai trò của sở cứu hỏa trong điều tra hỏa hoạn nên là xác định xem hỏa hoạn có phải là hành vi phạm tội hay không, trong khi cảnh sát chịu trách nhiệm điều tra thêm và bắt giữ nghi phạm.
  • Việc giao trách nhiệm điều tra hỏa hoạn cho các chuyên gia hiệu quả hơn là để cảnh sát đảm nhận, sở cứu hỏa nên điều tra hỏa hoạn, sau đó chuyển thông tin cho cảnh sát.
  • Việc sử dụng công nghệ nhận diện khuôn mặt nên được thực hiện bởi các chuyên gia được đào tạo bài bản, thay vì cảnh sát thông thường.
  • Ứng dụng của công nghệ nhận diện khuôn mặt trong điều tra hỏa hoạn không chỉ giới hạn ở việc xác định nghi phạm, mà còn bao gồm cả việc xác định các nhân chứng hoặc nạn nhân tiềm năng.

Psilocybin làm giảm trầm cảm và lo âu ở bệnh nhân ung thư (2016) #

Psilocybin decreases depression and anxiety in cancer patients (2016)

https://pmc.ncbi.nlm.nih.gov/articles/PMC5367557/

Bài viết này là báo cáo về một nghiên cứu, chủ đề nghiên cứu là “Hiệu quả của Psilocybin (một chất gây ảo giác) trong việc giảm chứng trầm cảm và lo âu ở bệnh nhân ung thư giai đoạn cuối”.

Tiêu đề: Psilocybin tạo ra sự giảm đáng kể và kéo dài chứng trầm cảm và lo âu ở bệnh nhân ung thư giai đoạn cuối: Một thử nghiệm ngẫu nhiên mù đôi

Tác giả: Roland R Griffiths và cộng sự

Tóm tắt: Bệnh nhân ung thư thường phát triển các triệu chứng trầm cảm và lo âu mãn tính, có ý nghĩa lâm sàng, làm giảm chất lượng cuộc sống. Các nghiên cứu trước đây cho thấy Psilocybin có thể làm giảm chứng trầm cảm và lo âu ở bệnh nhân ung thư. Nghiên cứu này đã nghiên cứu hiệu quả của Psilocybin trên 51 bệnh nhân được chẩn đoán mắc bệnh ung thư giai đoạn cuối và có các triệu chứng trầm cảm/lo âu. Đây là một thử nghiệm chéo, mù đôi, ngẫu nhiên, nghiên cứu hiệu quả của liều cực thấp (liều giống như giả dược, 1 hoặc 3 mg/70 kg) so với liều cao (22 hoặc 30 mg/70 kg) Psilocybin, hai liều được dùng theo thứ tự ngược nhau trong khoảng thời gian 5 tuần, với 6 tháng theo dõi. Hướng dẫn cho những người tham gia và nhân viên được giảm thiểu để giảm thiểu hiệu ứng kỳ vọng. Trong suốt nghiên cứu, những người tham gia, nhân viên và người quan sát cộng đồng đã đánh giá tâm trạng, thái độ và hành vi của những người tham gia. Liều cao Psilocybin tạo ra sự giảm đáng kể trên các thang đo trầm cảm và lo âu được đánh giá lâm sàng và tự đánh giá, đồng thời cải thiện chất lượng cuộc sống, ý nghĩa cuộc sống và sự lạc quan, đồng thời giảm lo lắng về cái chết. Những thay đổi này được duy trì trong 6 tháng theo dõi, với khoảng 80% những người tham gia tiếp tục cho thấy sự giảm đáng kể về mặt lâm sàng chứng trầm cảm và lo âu. Những người tham gia cho rằng những cải thiện về cuộc sống/bản thân, tâm trạng, các mối quan hệ giữa các cá nhân và thái độ tâm linh là do trải nghiệm liều cao, với hơn 80% ủng hộ sự gia tăng từ trung bình đến lớn về hạnh phúc/sự hài lòng trong cuộc sống. Đánh giá của người quan sát cộng đồng cho thấy những thay đổi tương ứng. Trải nghiệm Psilocybin huyền bí trong ngày dùng thuốc trung gian cho ảnh hưởng của liều Psilocybin đối với kết quả điều trị.

Đăng ký thử nghiệm: ClinicalTrials.gov Identifier: NCT00465595

Từ khóa: Psilocybin, chất gây ảo giác, ung thư, lo âu, trầm cảm, giảm triệu chứng, trải nghiệm huyền bí

Giới thiệu: Bệnh nhân ung thư thường phát triển một hội chứng đau khổ tâm lý xã hội mãn tính, có ý nghĩa lâm sàng, với các đặc điểm cốt lõi là tâm trạng chán nản, lo âu và giảm chất lượng cuộc sống, với tỷ lệ lên đến 40% bệnh nhân ung thư đáp ứng các tiêu chí cho rối loạn tâm trạng. Ở bệnh nhân ung thư, trầm cảm và lo âu có liên quan đến việc giảm tuân thủ điều trị, thời gian nằm viện kéo dài, giảm chất lượng cuộc sống và tăng nguy cơ tự tử. Trầm cảm là một yếu tố nguy cơ độc lập gây tử vong sớm ở bệnh nhân ung thư. Thuốc chống trầm cảm và ít được sử dụng hơn là benzodiazepine đã được sử dụng để điều trị tâm trạng chán nản và lo âu ở bệnh nhân ung thư, mặc dù bằng chứng cho thấy hiệu quả hạn chế và mâu thuẫn, và benzodiazepine thường chỉ được khuyến cáo sử dụng trong thời gian ngắn do tác dụng phụ và các vấn đề cai nghiện. Mặc dù các phương pháp điều trị tâm lý chỉ cho thấy hiệu quả nhỏ đến trung bình trong việc điều trị đau khổ về cảm xúc và chất lượng cuộc sống, và chất lượng báo cáo thấp trong nhiều thử nghiệm, nhưng có một số can thiệp đầy hứa hẹn sử dụng liệu pháp tâm lý theo định hướng hiện sinh.

Các chất gây ảo giác cổ điển, bao gồm Psilocybin (Psilocin) và (+)-Lysergic acid diethylamide (LSD), là một nhóm các hợp chất đa dạng về cấu trúc, là chất chủ vận thụ thể 5-HT2A và tạo ra một loạt các thay đổi độc đáo về tư duy, nhận thức và tâm trạng. Một số nghiên cứu không mù trong những năm 1960 và 70 cho thấy rằng các hợp chất này có thể có hiệu quả trong việc điều trị đau khổ tâm lý ở bệnh nhân ung thư, nhưng những nghiên cứu này không bao gồm các điều kiện so sánh như mong đợi trong các thử nghiệm dược lý tâm thần hiện đại.


HN | Độ nóng: 247 điểm | 244 bình luận | Tác giả: Bluestein #

https://news.ycombinator.com/item?id=44603267

  • Kể từ năm 2016, psilocybin (chất ma túy trong nấm thức thần) đã được FDA công nhận là một liệu pháp đột phá để điều trị chứng trầm cảm kháng trị, và các nghiên cứu và sử dụng y tế liên quan đã tăng lên.
  • Psilocybin đã giúp một số người và bạn bè của họ cải thiện đáng kể chứng trầm cảm, nhưng cần kết hợp với điều trị chuyên nghiệp.
  • Adderall chứa gấp bốn lần lượng amphetamine và có thể nhanh chóng được đưa ra thị trường, trong khi psilocybin, mặc dù có lịch sử lâu đời, vẫn chưa được bào chế thành thuốc viên.
  • Psilocybin không có đủ lợi nhuận, không được sử dụng rộng rãi và lâu dài như thuốc ADHD hoặc thuốc kháng sinh.
  • Psilocybin bị chôn vùi vì lịch sử của nó như một loại thuốc giải trí, điều này khác với hầu hết các ứng cử viên thuốc.
  • Adderall cũng là một loại thuốc kích thích, nó đã được sử dụng như một loại thuốc giải trí trong nhiều thập kỷ trước khi được sử dụng cho ADHD.
  • Psilocybin rất dễ trồng tại nhà, điều này càng làm giảm tiềm năng lợi nhuận của các công ty dược phẩm lớn.
  • Luật về thuốc hiện đại xuất hiện vào những năm 1970, thời kỳ đỉnh cao của việc những người theo chủ nghĩa hippie sử dụng thuốc gây ảo giác để cố gắng lật đổ chính phủ, những người nắm quyền sợ mất quyền lực và coi những loại thuốc này là một mối đe dọa.
  • Các cố vấn của Nixon đã từng nói rằng họ đã phá hoại các cộng đồng này bằng cách liên kết những người theo chủ nghĩa hippie với cần sa, người da đen với heroin và hình sự hóa nghiêm khắc.
  • Thuốc có thể được chia thành hai loại: một loại là thuốc “cảm xúc” tạo ra sự đồng cảm và chữa lành, và loại còn lại là thuốc khiến người ta “bốc đồng”, chẳng hạn như cocaine, rượu, caffeine, v.v.
  • Luật về thuốc và nguồn gốc của chúng có thể bắt nguồn từ thời kỳ trước những năm 1970, và “cuộc chiến chống ma túy” không phải là sự khởi đầu của câu chuyện.
  • Việc xây dựng luật về thuốc một phần là do các chính sách bảo thủ, thuốc gây ảo giác phổ biến hơn trong giới cánh tả, điều này dẫn đến việc luật pháp được sử dụng như một công cụ đàn áp chính trị.
  • Theo thời gian, các podcast cánh hữu và các CEO tỷ phú thảo luận về DMT (dimethyltryptamine), khiến tình hình trở nên phức tạp hơn và tốc độ hợp pháp hóa thuốc gây ảo giác trở nên thận trọng hơn.

Trường hợp sử dụng AI yêu thích của tôi là viết nhật ký #

My favorite use-case for AI is writing logs

https://newsletter.vickiboykis.com/archive/my-favorite-use-case-for-ai-is-writing-logs/

Bài viết này chủ yếu thảo luận về ứng dụng AI yêu thích của tác giả - viết nhật ký (logs). Tác giả đặc biệt đề cập đến tính năng tự động hoàn thành toàn bộ dòng code trong PyCharm, một tính năng được tích hợp sẵn trong IDE kể từ cuối năm 2023. Tính năng này được thiết kế rất chu đáo, không gây gián đoạn cho người dùng và giúp tác giả trở thành một nhà phát triển hiệu quả hơn. Quan trọng nhất, nó vẫn cho phép tác giả kiểm soát phần lớn code của mình. Tác giả cũng đề cập đến việc sử dụng tính năng này trong GoLand và bày tỏ sự hài lòng khi là khách hàng của JetBrains vì họ đã cung cấp một tính năng như vậy.

Bài viết đề cập rằng tác giả thường xuyên xử lý code liên quan đến xử lý dữ liệu tuần tự, tính toán và các lệnh gọi API không đồng bộ trên nhiều dịch vụ. Ngoài ra, tác giả còn xử lý nhiều thao tác vector chính xác, trong đó hậu tố hình dạng trong PyTorch không phải lúc nào cũng rõ ràng. Do đó, gỡ lỗi bằng câu lệnh in và viết nhật ký tốt luôn là một phần quan trọng trong quy trình làm việc của tác giả trong nhiều năm.

Tác giả trích dẫn quan điểm của Kerningan và Pike trong cuốn sách “The Practice of Programming”, họ thích sử dụng câu lệnh in hơn là trình gỡ lỗi, vì việc thêm các câu lệnh đầu ra và code tự kiểm tra ở các vị trí quan trọng sẽ hiệu quả hơn so với việc nhấp vào code từng dòng. Tác giả cho rằng, viết nhật ký tốt là rất quan trọng, nhưng nó cũng làm gián đoạn quá trình gỡ lỗi.

Bài viết cũng đề cập đến việc sử dụng logger của thư viện loguru để viết nhật ký, nhưng tác giả nhận thấy rằng nếu cần phải viết f-strings lặp đi lặp lại, đặc biệt khi cần định dạng giá trị hoặc truy cập các phần tử trong data frame, danh sách và cấu trúc lồng nhau, thì điều này sẽ trở nên lặp đi lặp lại và tẻ nhạt. Tác giả chỉ ra rằng tính năng tự động hoàn thành toàn bộ dòng code có thể giúp giải quyết vấn đề này, vì mô hình của JetBrains có thể tự động suy luận các phần bổ sung nhật ký từ văn bản xung quanh, giới hạn trong 384 ký tự. Tính năng này kết hợp tất cả thông tin này bằng cách nhập phần mở rộng tệp, đường dẫn tệp và phần code phía trên con trỏ nhập vào mô hình.

Tác giả đề cập rằng đầu ra bị hạn chế này đủ tốt trong hầu hết các trường hợp và có thể tăng tốc đáng kể quy trình làm việc. Một lợi ích bổ sung là nó thường rõ ràng hơn so với những gì tác giả, một con người lười biếng, có thể viết, vì chúng rất ngắn gọn và tác giả thường không xóa chúng sau khi hoàn thành gỡ lỗi, vì chúng hiện trở nên có giá trị trong môi trường production.

Bài viết cũng cung cấp hai ví dụ từ các dự án thực tế, cho thấy cách tự động hoàn thành có thể suy luận rằng tác giả muốn kiểm tra URL Redis và hình dạng của data frame. Tác giả nhấn mạnh rằng phần thú vị nhất của tính năng này là mô hình suy luận hoàn toàn được bản địa hóa, có nghĩa là nhóm phát triển cần đáp ứng một số yêu cầu rất quan trọng, bao gồm nén và tốc độ.

Mô hình cần đủ nhỏ để có thể đi kèm với IDE, để phù hợp với dung lượng bộ nhớ trên máy tính để bàn (file nhị phân MacOS đã khoảng 1GB), điều này loại trừ 99% các mô hình ngôn ngữ lớn (LLMs) hiện tại. Tuy nhiên, mô hình cần đủ thông minh để có thể nội suy các dòng code từ một cửa sổ ngữ cảnh nhỏ. Yêu cầu cục bộ loại bỏ bất kỳ công cụ suy luận mô hình nào, chẳng hạn như vLLM, SGLM hoặc Ray, vốn triển khai các tối ưu hóa bộ nhớ cache KV, chẳng hạn như PagedAttention. Nó phải là một mô hình đủ nhanh để có thể tạo ra token đầu tiên (và tất cả các token tiếp theo) rất nhanh. Cuối cùng, nó phải được tối ưu hóa cho Python, vì mô hình này chỉ khả dụng trong PyCharm.

Bài viết kết luận rằng, trái ngược với các giả định hiện tại về cách xây dựng và phân phối LLMs, chúng không cần phải quá lớn và cũng không cần phải là các mô hình chung, được cung cấp thông qua API độc quyền. Tác giả chỉ cần huấn luyện một mô hình, hoàn thành việc bổ sung một dòng code với ngữ cảnh 384 ký tự, sau đó nén mô hình đó đến mức tối đa để nó có thể chạy và suy luận trên thiết bị.

Bài viết cũng đề cập đến một bài báo do JetBrains xuất bản, trình bày chi tiết quy trình tích hợp plugin và huấn luyện mô hình. Mô hình được huấn luyện trong PyTorch, sau đó được lượng tử hóa. Ban đầu, họ huấn luyện một mô hình giải mã Transformer theo phong cách GPT-2 với 100 triệu tham số, bao gồm một bộ tokenizer. Sau đó, họ đã thay đổi kiến trúc này thành Llama2, do sự thành công của cộng đồng llama.cpp và GGUF, cũng như hiệu suất tốt hơn của kiến trúc mới. Tập dữ liệu gốc mà họ sử dụng là một tập hợp con của The Stack, một tập dữ liệu code trên 30 ngôn ngữ lập trình, với 6TB code. Tập huấn luyện ban đầu “chỉ” là 45GB, khi chuẩn bị dữ liệu huấn luyện, vì giới hạn không gian, họ đã cố tình xóa tất cả các comment code khỏi dữ liệu huấn luyện, tập trung vào việc tạo code. Họ đã sử dụng một bộ tokenizer theo phong cách BPE cho các cặp ký tự thay vì byte, bộ tokenizer này nhạy cảm với thụt lề của Python, bằng cách chuyển đổi khoảng trắng và tab thành các token bắt đầu-kết thúc <SCOPE_IN><SCOPE_OUT>, để loại bỏ các token có thể khác nhau chỉ do khoảng trắng khác nhau. Cuối cùng, họ đã chọn một bộ tokenizer có kích thước từ vựng là 16.384. Trong quá trình huấn luyện, họ cũng đã thực hiện một bước rất thú vị, đó là xóa các import, vì họ nhận thấy rằng các nhà phát triển thường chỉ thêm các import sau khi viết code thực tế, đây là một thực tế mà mô hình cần dự đoán. Sau đó, họ chia tập dữ liệu thành huấn luyện/kiểm tra để đánh giá và huấn luyện trên 8 GPU NVidia A100 trong vài ngày, sử dụng hàm mục tiêu cross-entropy loss.

Vì họ có thể tập trung rõ ràng vào lĩnh vực và hiểu cách thức hoạt động của suy luận code, tập trung vào một ngôn ngữ lập trình duy nhất với những sắc thái riêng, họ có thể làm cho tập dữ liệu huấn luyện nhỏ hơn, đầu ra chính xác hơn và tốn ít thời gian và công sức hơn để huấn luyện mô hình.

Bài viết kết luận rằng plugin thực tế có trong PyCharm được triển khai bằng Kotlin, nhưng nó sử dụng một máy chủ gốc được triển khai bằng C++ chạy cục bộ bổ sung để cung cấp các token suy luận. Để chuẩn bị mô hình cho dịch vụ, họ đã lượng tử hóa mô hình từ FP32 thành INT8, nén mô hình từ 400MB xuống 100MB và chuẩn bị nó làm một tạo tác ONNX RT cho dịch vụ, điều này cho phép họ sử dụng suy luận CPU, loại bỏ thuế chi phí CUDA (sau đó, họ chuyển sang sử dụng llama.cpp để cung cấp kiến trúc mô hình llama cho máy chủ). Cuối cùng, để suy luận một loạt các token, họ sử dụng tìm kiếm beam search. Thông thường, Transformer-decoder được huấn luyện để dự đoán t tiếp theo…


HN | Độ nóng: 243 điểm | 173 bình luận | Tác giả: todsacerdoti #

https://news.ycombinator.com/item?id=44599549

  • Có người cảm thấy việc sử dụng AI để đơn giản hóa lập trình là trốn tránh sự phức tạp của lập trình.
  • Có người yêu thích khoa học máy tính, cho rằng các công cụ khác nhau có thể giúp mọi người thực hiện những ý tưởng phức tạp.
  • Có người cho rằng “biết muốn gì” quan trọng hơn “biết làm thế nào”, AI giúp những người không có nền tảng kỹ thuật cũng có thể thử nghiệm và thực hiện ý tưởng.
  • Có người cảm thấy nhiều năm tích lũy kỹ thuật trở nên vô dụng trước AI, cần phải thích nghi hoặc tụt hậu.
  • Có người cho rằng lập trình viên mới vào nghề không biết muốn gì, còn lập trình viên giàu kinh nghiệm có thể trực giác phát hiện ra vấn đề.
  • Có người thông qua AI thử viết code, nhưng gặp phải những lỗi kỳ lạ, cần lập trình viên có kinh nghiệm sửa chữa.
  • Có người cảm thấy lập trình AI giống như lập trình viên mới vào nghề tự học đang vội vàng thực hiện chức năng dưới tác dụng của thuốc.
  • Có người thông qua AI đã thực hiện thành công ứng dụng thanh toán quét cơ bản, bao gồm tích hợp thanh toán, không cần tra cứu bất kỳ tài liệu nào.
  • Có người cho rằng hợp tác với AI cần thiết lập giới hạn, tiêu chuẩn và kế hoạch rõ ràng, sau đó lặp lại kiểm tra kết quả.
  • Có người chỉ ra rằng AI sẽ không cho bạn biết một ý tưởng nào đó là không tốt, bạn cần tự chỉ ra vấn đề.
  • Có người lấy ví dụ một người không có kinh nghiệm về khoa học máy tính đã tạo thành công một trang web người lớn đăng ký, để minh họa khả năng của AI.
  • Có người nhấn mạnh sự phức tạp bất ngờ và sự phức tạp bản chất, cho rằng AI không loại bỏ hoàn toàn sự phức tạp bất ngờ, cũng không thể quản lý tất cả sự phức tạp bản chất.
  • Có người cho rằng không có viên đạn bạc, cần hiểu chính xác về máy tính và kiến thức lĩnh vực để xây dựng phần mềm hữu ích.