Gordon Moore: ‘Định luật Moore đã đi đến giới hạn' |
Vnexpress.net Ngày 19/4 tới, ngành công nghiệp điện toán sẽ kỷ niệm 40 năm ngày ra đời của định luật mang tên nhà đồng sáng lập hãng Intel. Tuy nhiên, tác giả của thuyết nối tiếng này tin rằng quá trình nhân đôi số transistor trên chip theo chu kỳ 2 năm không thể kéo dài lâu nữa.
Dưới đây là trao đổi của Gordon Moore với một số hãng tin công nghệ quốc tế: - Định luật Moore bắt nguồn từ đâu? - Vào dịp kỷ niệm 35 năm của tạp chí Electronics vào năm 1965, tổng biên tập của họ mời tôi viết một bài báo về tương lai của các linh kiện bán dẫn trong vòng 10 năm tiếp theo. Tôi muốn trình bày ý tưởng về việc các mạch tích hợp (IC) sẽ là chìa khóa để tạo ra những thiết bị rẻ tiền hơn. Vì thế, tôi đặt ra phép ngoại suy về sau trở thành định luật này. Mạch điện lớn nhất vào thời điểm đó có khoảng 30 linh kiện bên trong. Tôi lần ngược lại lịch sử thì thấy con số đó bắt đầu từ 4,8,16...và cứ như vậy tăng gấp đôi mỗi năm. Lúc ấy tôi cũng không nghĩ điều này thực sự là chính xác và bản thân tôi chỉ muốn cố làm rõ rằng mọi thứ sẽ trở nên ngày càng tinh vi và rẻ tiền hơn. Cuối cùng, hóa ra điều mà tôi viết lại chính xác hơn cả mức bản thân tôi có thể tin. Một người bạn của tôi là giáo sư Carver Mead thuộc hãng Cal Tech đã đặt luôn tên cho phát hiện này là Định luật Moore và cứ thế người ta gọi nó như vậy. Suốt 20 năm tôi thậm chí không thể tự tin sử dụng cái tên đó và mãi về sau mới thấy chấp nhận được. Năm 1975, tôi thay đổi một số nội dung trong định luật và mọi thứ được giữ nguyên cho đến hiện nay. Vào thời điểm này, quy trình nhân đôi số transistor là xấp xỉ 24 tháng. - Ông cảm nhận như thế nào về ý nghĩa của quá trình nhân đôi transistor này cũng như những cơ hội mà nó cho phép tạo ra? - Tôi đọc lại bài báo mình viết và nhận thấy những vấn đề nhắc đến trong đó liên quan đến máy tính gia đình. Tôi rất ngạc nhiên khi thấy chính mình tìm ra tính quy luật như vậy. Thành thực mà nói tôi không biết mình đã dự báo một điều mang tính lý thuyết vào năm đó. - Mọi thứ đang đi đến giới hạn và tốc độ nhân đôi bóng bán dẫn đã chậm dần. Những vật liệu mới có thể cho phép ngành công nghiệp máy tính vượt qua ngưỡng giới hạn? - Với bất cứ vật liệu nào làm từ nguyên tử thì đều có một giới hạn cơ bản mà bạn không thể làm nhỏ hơn. Tôi đã thay đổi chu kỳ nhân đôi từ 1 năm lên 2 năm và dần dần có thể sẽ là 3-4 năm. - Đã bao nhiêu lần người ta dự báo sự kết thúc của định luật Moore và bao nhiêu lần ông thực sự tin rằng điều đó sẽ xảy ra? - - Trong 10 năm qua, tôi đã đọc rất nhiều bài báo viết về sự chấm dứt của tiến trình nhân đôi transistor trên chip. Có thời điểm tôi đã nghĩ rằng 1 micromet (1 phần triệu met) sẽ là giới hạn cuối cùng nhưng rồi mốc đó nhanh chóng bị vượt qua. Sau đó, tôi lại tin rằng 1/4 micromet sẽ là dấu chấm hết nhưng mọi thứ vẫn tiếp diễn. Giờ đây chúng ta đang ở mức dưới 1/10 micromet và đang tiến đến mức 1/65. Quá trình nhân đôi không thể kéo dài mãi mãi nhưng sự chấm hết sẽ chỉ đến trong ít nhất 10-20 năm nữa và đó cũng là khoảng thời gian mà chúng ta có thể dự báo. - Thứ gì có thể thay thế silicon? - Có thể là điện toán lượng tử hay công nghệ nano…Thực sự mà nói thì tôi vẫn rất hoài nghi về việc những thứ đó có khả năng thay thế hoàn toàn silicon kỹ thuật số. Bạn có thể dễ dàng tạo ra một transistor cực nhỏ bằng những công nghệ này với tần suất rất cao nhưng khó có thể kết nối hàng tỷ thứ đó lại với nhau. Đó chính là vấn đề. Mọi việc không đơn thuần chỉ là làm ra một transistor thật nhỏ. Tôi coi công nghệ phát triển xoay quanh mạch tích hợp IC là phương pháp cơ bản để xây dựng các vi kiến trúc phức tạp. Thay vì bị thay thế, nó thực sự đang xâm nhập vào rất nhiều lĩnh vực khác. Chẳng hạn như chip gene. Silicon là một công nghệ rất mạnh mà sẽ còn được sử dụng rộng rãi. Tôi chưa thấy bất cứ thứ gì có tiềm năng thay thế nó. Tuy nhiên, điều đó không có nghĩa là nhiều phát minh mới sẽ không thể được tích hợp lại, chẳng hạn việc tích hợp các ống nano carbon vào nhiều lớp kim loại hoặc tương tự như vậy. Dẫu sao, tôi vẫn chưa thấy đó là một giải pháp thay thế bóng bán dẫn silicon. - Khi nhìn lại quãng đường đã qua, những sản phẩm nào có thể khiến ông thốt lên “Ái chà đúng là một tác phẩm đẹp”? - Những thứ mà tôi cho là dấu mốc lại không phải là những tác phẩm đẹp mà là những sản phẩm có tính kinh tế cao. RAM động 1103 đầu tiên mà chúng tôi chế tạo tại Intel là một trong số đó. Đây chính là sản phẩm tạo doanh thu lớn thực sự đầu tiên của chúng tôi. Tiếp theo, tôi đánh giá rất cao bộ vi xử lý đầu tiên. Ban đầu, nó chạy rất chậm nhưng đã làm đúng tác vụ mà nó được thiết kế ra để hoàn thành. Cũng có rất nhiều thứ khác mang tính kinh tế cao nhưng tôi thường coi chúng là những sản phẩm mang tính cách mạng nhiều hơn. - Ông nghĩ thế nào về việc sức mạnh điện toán liên tục được bổ sung theo định luật Moore có thể đem đến những chiếc computer có trí thông minh tương đương con người? - Trí tuệ của con người, theo quan điểm của tôi, được tạo nên theo một cách khác xa so với máy tính. Tôi không cho rằng con đường mà chúng ta đang theo đuổi hiện nay sẽ đem đến một thứ gì đó giống như trí thông minh tự nhiên. Cái sức mạnh trí tuệ nhân tạo cần có để làm được những điều giống như bộ não vượt quá tất cả những gì chúng ta tạo ra trên trái đất này theo cách tiếp cận hiện tại. - Chip đang ngày một nhỏ hơn trong khi đầu tư cho các nhà máy chế tạo thiết bị vi xử lý lại ngày càng trở nên đắt đỏ. Ông đánh giá ảnh hưởng của vấn đề này đối với ngành công nghiệp chế tạo chip như thế nào? - Vào những năm 60 của thế kỷ trước, chi phí xây dựng cơ sở còn tương đối rẻ và vấn đề chưa có gì đáng kể. Mọi việc chỉ thực sự trở thành điểm nóng vào những năm 80 - trước đó yếu tố chi phí chủ yếu liên quan đến lao động và công nghệ. Các nhà máy chế tạo chip hiện nay đòi hỏi mức đầu tư từ 2,5 đến 3 tỷ USD nhưng ngược lại năng suất cao hơn nhiều. Khi Intel được thành lập vào năm 1968, chúng tôi dẫn đầu với công nghệ tấm wafer 2 inch. Còn hiện nay, các tấm wafer 12 inch với đường kính gấp 6 lần và diện tích gấp 36 lần cho phép chứa đựng nhiều thứ hơn và đem lại năng suất cao hơn nhiều. - Ông có dự báo định luật gì mới cho 40 năm tới? - Thôi, tôi xin chịu. Một vòng nguyệt quế cho định luật Moore này đã đủ rồi. Tất nhiên, cũng có thể có một định luật Moore phiên bản 2 nhưng người đẻ ra nó sẽ không phải là tôi. - Ông dùng máy tính như thế nào? - Tôi dành một nửa thời gian ngồi trước computer. E-mail là một phần quan trọng trong cuộc sống hằng ngày của tôi. Hiện nay, tôi đã nghỉ hưu và mỗi năm cư trú 6 tháng ở Hawaii. Nếu không có máy tính thì chả biết tôi sẽ liên lạc như thế nào. Trên máy tính, tôi dùng các chương trình bảng tính và phần mềm văn bản nhiều nhất. Tôi cũng hay chơi các game đơn giản và xử lý ảnh. Phan Khương (vnexpress.net tổng hợp)
Công nghệ vật liệu chip đi gần đến giới hạn
Bao giờ quy luật Moore đến giới hạn?
Càng nhiều transistor tích hợp trên chip, khả năng xử lý của máy tính càng mạnh. Các bóng bán dẫn càng gần nhau thì khả năng truyền tín hiệu càng cao. Trong khi đó, các nhà nghiên cứu không ngừng chèn thêm linh kiện vào bộ xử lý. Nhưng quá trình này không thể kéo dài bất tận. Năm 1965, Gordon Moore, đồng sáng lập hãng Intel, đưa ra tuyên bố nổi tiếng được gọi là “Quy luật Moore”: Số lượng bóng bán dẫn trên một chip sẽ liên tục tăng gấp đôi trong chu kỳ từ 18 đến 24 tháng. Trong 40 năm tiếp sau đó, lượng transistor đã tăng từ 2.300 lên 55 triệu và luật Moore tiếp tục chứng minh chân lý của nó. “Xét về nhiều mặt, chúng ta vẫn còn trong giai đoạn trứng nước của lĩnh vực vi xử lý”, Gordon Moore nói. “Còn rất nhiều điều mà ta có thể làm để chip mạnh hơn”. Trong một chu trình giống như thuật in đá (lithography) khi chế tạo chip, các mạch điện được khắc axit lên silicon bằng cách chiếu ánh sáng qua một tấm màn. Cùng với việc cải tiến phương pháp sử dụng những bước sóng ngắn của ánh sáng, người ta có thể chế tạo những vi mạch ngày càng tinh xảo. Tuy nhiên, theo tiến sĩ Dave Watson của hãng IBM, có một số khó khăn trong việc tiếp tục cải thiện hơn nữa quá trình nói trên và người ta đang bắt đầu chuyển sang sử dụng những bước sóng ánh sáng khác nhau, thay thế ánh sáng hiển thị thực bằng tia cực tím. Điều này cho phép ta sử dụng những bước sóng ngày càng ngắn hơn và nhờ đó có thể gắn thêm những linh kiện bé hơn nữa vào các bó vi mạch. Mặc dù vậy, kể cả khi người ta có thể liên tục tinh xảo hóa quá trình lithography nói trên thì thách thức lớn nhất vẫn là nhiệt lượng tỏa ra khi chip trở nên quá nóng. “Các bộ vi xử lý tiêu thụ nhiều năng lượng hơn mức chúng thực tế cần để hoạt động và vì thế phát ra nhiệt lượng cao. Nguyên nhân chính là mật độ quá đông các linh kiện được gắn trên nó”, Watson nói. “Sẽ đến một giai đoạn khi mà bạn không thể khai thác sức mạnh toàn bộ các thành phần của chip cùng một lúc mà chỉ có thể dùng từng phần để giữ cho lượng nhiệt tỏa ra ở mức thấp nhất”. Theo Watson, nếu nhìn vào công nghệ chip hiện nay, bộ phận lõi thực tế của thiết bị vi xử lý chỉ có thể dày khoảng 25 lớp nguyên tử silicon trong khi ta phải truyền điện giữa những bộ phận khác nhau. “Chính vì thế phải có hai thanh dẫn bằng đồng, ngăn cách bằng 25 lớp nguyên tử đó và các electron sẽ đơn giản nhảy từ mặt này sang mặt kia”, Watson giải thích. “Nếu càng làm nhỏ hơn nữa những yếu tố này, thì đơn giản là ta sẽ không thể kiểm soát các electron trong phạm vi một chip”. Trước đây, các nhà phát triển thiết bị xử lý đã gặp phải những rào cản như vậy nhưng luật Moore luôn luôn đem lại một hướng đi mới để khắc phục. Sự thay đổi từ thanh dẫn bằng nhôm sang đồng trong chip cũng đồng nghĩa với việc tiết kiệm 30% năng lượng. Những loại chip cao cấp gần đây được làm từ chất gallium arsenide (Gali axênit) thay thế cho silicon thậm chí còn nâng công suất lên 40%. Tuy nhiên, kể cả khi khắc phục được vấn đề sức nóng, vật liệu mà tốc độ thì quá trình liên tục thu nhỏ cũng không thể diễn ra mãi mãi. Nhiều chuyên gia dự báo, vào thập kỷ tới, luật Moore sẽ đạt đến giới hạn của nó và các hãng chế tạo chip sẽ không thể làm ra những dây dẫn mỏng hơn cấp độ nguyên tử. Khi đạt đến ngưỡng đó, nếu chúng ta vẫn muốn tăng cường sức mạnh cho thiết bị xử lý thì các nhà khoa học sẽ phải tiến hành một hướng đi khác. Hiện nay, một trong những giải pháp được nhắc đến nhiều nhất chính là công nghệ lượng tử (quantum). Trong một máy tính quantum, dữ liệu được xử lý bằng cách khai thác những thuộc tính vật lý đặc biệt của lượng tử và các thành phần tính toán sẽ không phải là transistor mà là những nguyên tử được “bẫy”. “Sự khác biệt giữa điện toán lượng tử và máy tính truyền thống là: trong cơ chế computer hiện nay, chúng ta xử lý các bit dữ liệu, mà tại một thời điểm nhất định, có thể là số 1 hoặc 0. Còn trong công nghệ lượng tử, chúng ta dùng đơn vị Qubit”, Giáo sư Andrew Briggs thuộc ngành vật liệu nano của đại học Oxford (Anh), giải thích. “Cái khác chính là mỗi Qubit biểu thị 1 hoặc 0 cùng một lúc. Ích lợi mà nó đem lại là chúng ta có thể áp dụng nhiều giải pháp khác nhau đồng thời cho một vấn đề”. Tổ hợp Qubit sẽ được thiết lập bằng cách sắp hàng những nguyên tử bị bẫy. Thay vì phải tìm ra một câu trả lời cụ thể cho một vấn đề, nhóm Qubit sẽ xác định tất cả những giải đáp khả thi với ít bước xử lý hơn nhiều so với điện toán truyền thống. Phan Khương (theo BBC)
IBM phát triển công nghệ chip mới
Computer lượng tử có thể 'xử lý' bài toán không giải đượcợc |
||||||||||||||||||
|
||||||||
Nhà khoa học Australia gốc Việt Kiều Tiến Dũng đã có một khám phá có thể làm cho nền toán học và khoa học computer của thế kỷ trước vượt qua được giới hạn của chính nó: Những bài toán từng được coi là "không giải được" hoặc "không tính được" có thể sẽ giải được bằng cách sử dụng những tính chất bí ẩn của cơ học lượng tử. Công trình này hiện thu hút sự chú ý của nhiều nhà khoa học trên thế giới. Hoàn toàn độc lập với Kiều Tiến Dũng, hai nhà khoa học New Zealand là Christian Calude và Boris Pavlov cũng đi đến những kết luận tương tự. Tạp chí New Scientist, một tạp chí tiên phong trong việc giới thiệu những tư tưởng mới trong khoa học, bình luận: Đó là một cuộc tấn công táo bạo vào chính những giới hạn của toán học, nhờ đó có thể lấy lại những kho báu mà chúng ta tưởng rằng vĩnh viễn sẽ nằm ở phía bên kia tầm với. 1- Giới hạn tính toán bằng computer
Mặc dù computer ngày nay làm được biết bao nhiêu điều kỳ diệu, nhưng nó có những hạn chế nội tại không thể vượt qua. Người có công khám phá ra điều này là Alan Turing (1912-1954), nhà toán học xuất sắc người Anh, chuyên gia giải mã kỳ tài của Anh trong Chiến tranh thế giới thứ II, được coi là một trong những cha đẻ của khoa học computer ngày nay. Ngay từ năm 1936, Turing đã phác thảo ra thiết kế của một chiếc máy tính hoạt động theo chương trình, được gọi là máy Turing (Turing Machine). Về nguyên tắc, đó chính là cái mà bây giờ chúng ta gọi là computer. Sau chiến tranh ông dồn hết nỗ lực vào việc tìm nguyên lý hoạt động cho chiếc máy tưởng tượng của mình. Năm 1954, ông tự sát vì bị kết tội đồng tính luyến ái, để lại cho đời một tác phẩm bất hủ, được liệt vào danh sách 10 công trình khoa học tuyệt tác của thế kỷ 20: "On the Computability of Numbers" (Về khả năng có thể tính toán bằng số). Nội dung cơ bản của công trình này chỉ rõ khi nào một bài toán có thể giải được (bằng số) và khi nào thì không. Gần như đồng thời, Alonzo Church, một nhà logic toán học nổi tiếng tại Đại học Princeton cũng cho công bố một bài báo nhan đề "Một bài toán không giải được của lý thuyết số sơ cấp" (An Unsolvable Problem of Elementary Numbertheory), trong đó chỉ ra rằng có những bài toán không thể giải được bằng thuật toán. Ngay lập tức, Turing chứng minh rằng kết luận của Church tương đương với kết luận của chính ông. Kết luận đó đã đi vào lịch sử của khoa học tính toán như một nguyên lý nền tảng về khả năng giải được hoặc không giải được của một bài toán, được gọi là Luận đề Turing-Church (Turing-Church Thesis) với nội dung cơ bản như sau: Nếu một bài toán có thể giải được bằng cách sử dụng một tập hợp các quy tắc rõ ràng trong một số bước hữu hạn, thì bài toán đó có thể giải được bằng một chương trình trên computer, và ngược lại.
Nói một cách đơn giản: Một bài toán được coi là giải được nếu có thể tìm được một thuật toán hữu hạn để giải nó. Nếu không, bài toán là không giải được. Thực chất luận đề này là sự tổng quát hóa nguyên tắc lập trình cho computer hiện đại. Nó đã trở thành nền tảng, "sách gối đầu giường", một định nghĩa bất khả kháng của khoa học tính toán. Sau khi khẳng định nguyên lý hoạt động cho chiếc máy của mình, Turing đặt vấn đề: Phải chăng có những bài toán đòi hỏi một thời gian vô hạn để giải? Và ông đã tìm ra một bài toán cụ thể thuộc loại đó - bài toán Tính dừng - SCTM (The Halting Problem) nổi tiếng. Nội dung cụ thể là: Liệu có thể tiên đoán một chương trình cho trước sẽ ngừng hoặc chạy vòng quanh mãi mãi hay không? Turing trả lời: Không, không thể tiên đoán được. Do đó không thể khắc phục được sự cố này. Trong khi sử dụng computer, ai cũng có thể gặp SCTM. Gặp sự cố này chúng ta chỉ có cách kiên trì chờ đợi hoặc bấm nút "restart" (khởi động lại). Các nhà khoa học computer sau này cũng tiếp tục xác nhận rằng không có ngôn ngữ chương trình nào (Pascal, BASIC, Prolog, C,...) có thể có được một công cụ cho phép khám phá ra mọi sai hỏng (bugs) dẫn tới ngưng hoạt động hoặc gây ra những vòng xử lý (processing loops) kéo dài vô tận. Tính dừng là bài toán điển hình về hạn chế của computer. Sau này các nhà khoa học computer còn xác định được nhiều bài toán hạn chế khác như bài toán virus, bài toán tìm chương trình tối ưu cho một hoạt động định trước. Các nhà toán học cho rằng cơ sở logic của tính hạn chế này là Định lý bất toàn của Kurt Godel: Bất kỳ một hệ logic hình thức nào cũng không đủ mạnh để tự nó chứng minh nó phi mâu thuẫn, suy ra computer cũng không thể khắc phục được những sai hỏng trong những bài toán mà nó phải tự "xử lý" nó. Gregory Chaitin tại IBM còn cho rằng nguyên nhân của những hạn chế đó là ở chỗ tính ngẫu nhiên không phải chỉ tác động trong vật lý (như trong cơ học lượng tử), mà tác động ngay cả trong toán học. Chẳng hạn, số nguyên tố là hiện tượng mang tính ngẫu nhiên mà toán học không thể tìm ra những quy tắc xác định thống trị chúng. Tóm lại các hệ logic cũng chứa đựng tiềm ẩn tính bất định! Với tất cả những lý lẽ đó, khoa học computer dựa trên Luận đề Turing-Church đã tự đặt ra một giới hạn không thể vượt qua. Đó là một kết luận mang ý nghĩa như một "chân lý không thể thay đổi", một nguyên lý "bất di bất dịch", một cột mốc "vĩnh viễn ở phía bên kia tầm với", một bức tường "bất khả xâm phạm". Trong suốt hơn nửa thế kỷ qua, không ai dám vượt qua bức tường giới hạn đó. 2-Computer lượng tử sẽ cho phép vượt qua giới hạn
Năm 1984, sau khi đỗ bằng cử nhân toán - lý xuất sắc tại Đại học Queensland, Australia, Kiều Tiến Dũng nhận được học bổng làm luận án tiến sĩ tại Đại học Edinburgh ở Anh. Hoàn thành luận án năm 1988, ông trở thành giáo sư Đại học Edinburgh và Đại học Oxford. Năm 1991, ông trở về làm giáo sư Đại học Melbourne, đồng thời cộng tác nghiên cứu với các đại học danh tiếng nhất của Mỹ như Đại học Princeton, Đại học Columbia, Đại học MIT. Hiện ông là lãnh đạo nhóm nghiên cứu của CSIRO - Cơ quan nghiên cứu quốc gia của Australia, kiêm giáo sư vật lý lý thuyết tại Đại học Swinburne thuộc thành phố Melbourne. Trong một công trình nghiên cứu ứng dụng các nguyên lý của cơ học lượng tử vào khoa học tính toán được gửi tới Viện nghiên cứu quốc gia Mỹ ở Los Alamos gần đây, giáo sư Kiều Tiến Dũng đã đưa ra một kết luận hết sức quan trọng: "Chúng tôi bác bỏ Luận đề Turing-Church bằng cách chỉ ra rằng tồn tại những bài toán không giải được theo nguyên lý Turing, nhưng có thể giải được bằng cách thực hiện những quy trình cơ học lượng tử xác định rõ ràng". Nói cách khác, giáo sư Dũng đã khám phá ra rằng những bài toán không giải được bằng computer hiện nay thực ra có thể giải được bằng computer lượng tử - computer dựa trên nguyên lý mã hóa lượng tử. Theo NewsFctor, công trình của giáo sư Kiều có thể bắn một phát đạn trúng hai đích: Bài toán số 10 của David Hilbert và SCTM của Alan Turing. Năm 1900, trong Hội nghị toán học thế giới họp tại Paris, Hilbert, một trong những nhà toán học lớn nhất thời đó, nêu lên 23 bài toán chưa giải được như một thách thức đối với toán học thế kỷ 20. Bài toán số 10 có nội dung như sau: "Hãy tìm một phương pháp để xác định xem liệu một phương trình Diophantine có giải được hay không?". Phương trình Diophantine là phương trình đại số dạng đa thức nhiều biến với hệ số nguyên, nghiệm nguyên. Thí dụ Định lý Pythagoras hoặc Định lý cuối cùng của Fermat là những thí dụ cụ thể của phương trình Diophantine. Có thể phát biểu lại bài toán số 10 như sau: Liệu có thể tìm được một thuật toán hoặc một chương trình computer để tìm nghiệm nguyên của một phương trình đại số dạng đa thức nhiều biến với hệ số nguyên hay không? Năm 1970, bài toán số 10 được các nhà khoa học computer chứng minh rằng nó tương đương với bài toán "Xác định xem liệu một chương trình computer định trước có thể giải được những phương trình đại số đa thức hay không, hay sẽ bị treo hoặc dừng?". Từ đó thấy rằng bài toán số 10 của Hilbert tương đương với SCTM của Turing - một bài toán không giải được. Giáo sư Kiều Tiến Dũng tuyên bố ông có thể giải được cả hai bài toán trên. Ông giải thích, với cơ học lượng tử, chúng ta có thể sử dụng một "thuật toán lượng tử" để tìm kiếm một số vô hạn lời giải khả dĩ thích hợp với phương trình trong một khoảng thời gian hữu hạn. Đây là đặc điểm quan trọng nhất của computer lượng tử - yếu tố hơn hẳn và khác biệt hẳn của computer lượng tử so với computer thông thường hiện nay.
Nếu có thể xem xét tất cả các lời giải có thể có thì đương nhiên sẽ biết phương trình có thể giải được bằng thuật toán của chúng ta hay không, và cũng sẽ biết computer lượng tử có bị treo hay không, tức là cùng một lúc có thể giải được cả bài toán số 10 của Hilbert lẫn SCTM của Turing. Giáo sư Dũng nhấn mạnh: "Thuật toán lượng tử của chúng tôi, thực ra, được xem như một cuộc tìm kiếm vô hạn các số nguyên trong một khoảng thời gian hữu hạn - kiểu tìm kiếm cần thiết để giải bài toán Tính dừng của Turing". Nhưng tại sao computer lượng tử lại có khả năng phi thường đến như thế? Câu trả lời phụ thuộc vào cơ sở vật lý của computer lượng tử - những nguyên lý kỳ lạ của thế giới lượng tử mà thế giới thông thường không có.
3. Cơ sở vật lý trong khám phá của giáo sư Kiều Tiến DũngNgôn ngữ cơ bản của computer là hệ nhị phân - dãy chữ số gồm 1 và 0. Số 1 tương ứng với trạng thái mạch điện đóng và ngược lại, số 0 tương ứng với trạng thái mạch điện mở và ngược lại quan hệ tương ứng này là 1-1. Nói cách khác, mỗi trạng thái vật lý của mạch điện tương ứng với một thông tin duy nhất và ngược lại. Trong computer lượng tử, tình hình diễn ra hoàn toàn khác: Các hạt lượng tử, chẳng hạn electron và protons, cùng một lúc có thể tồn tại trong những trạng thái lượng tử khác nhau. Các nhà khoa học mô tả đó là sự tồn tại trong một "siêu vị thế trạng thái" (superposition of states). Tính chất này đến nay vẫn là một đặc trưng bí ẩn của thế giới lượng tử mà bản chất của nó chưa ai có thể giải thích rõ ràng chính xác. Một số người mô tả nó như một biểu hiện "rối lượng tử" (quantum entanglement), một số khác coi đó như một trong các biểu hiện bất định. Chẳng hạn, điều rất kỳ lạ là trong cùng một lúc các hạt lượng tử có thể đồng thời quay quanh trục (spining) theo chiều thuận kim đồng hồ lẫn chiều ngược kim đồng hồ, hoặc cùng một lúc có thể đồng thời đạt những mức năng lượng khác nhau. Nhưng dù chưa giải thích được bản chất của hiện tượng siêu trạng thái, các nhà nghiên cứu computer lượng tử vẫn đang tìm cách lợi dụng tính chất bí ẩn đó để xây dựng một thế hệ computer hoàn toàn mới - computer lượng tử - trong đó tại mỗi thời điểm computer có thể đồng thời có hàng nghìn trạng thái khác nhau, tức là tại mỗi thời điểm computer có thể đồng thời thực hiện hàng nghìn phép toán khác nhau. Điều này dẫn tới kết quả computer lượng tử có thể xử lý một lượng thông tin vô hạn trong một thời gian hữu hạn. Đó chính là cơ sở vật lý của khám phá của Kiều Tiến Dũng, Christian Calude và Boris Pavlov. Với khám phá này, không phải chỉ có bài toán số 10 của Hilbert hoặc SCTM của Turing sẽ được giải, mà sẽ có hẳn một lớp các bài toán không giải được sẽ được giải, với công cụ mới là computer lượng tử. Giả thuyết Golbach (Golbach' s Conjecture) có thể sẽ là một trong lớp đó. Giả thuyết này nói rằng mọi số chẵn đều là tổng của hai số nguyên tố. Giả sử bạn có thể viết được một chương trình cho computer lượng tử để, trong một thời gian hữu hạn, kiểm tra một số lượng vô hạn các thí dụ cụ thể (điều mà computer thông thường không thể làm vì đòi hỏi thời gian vô hạn). Nếu bạn tìm thấy một trường hợp sai, tức là Giả thuyết Golbach sai, bài toán chấm dứt. Nếu chương trình chạy trên máy hoàn thành mà không phát hiện thấy trường hợp sai, suy ra giả thuyết đúng. Một bài toán khác trong lớp đó có thể sẽ là Giả thuyết Riemann (Riemann's Hypothesis), một "chướng ngại lớn" của toán học đang được treo một giải thưởng trị giá 1 triệu USD cho ai giải được, có thể cũng sẽ được computer lượng tử trong tương lai giải quyết. Và nếu quả thật lớp những bài toán "ghê gớm" này đều được giải quyết hết thì không còn gì có thể so sánh nổi với tầm vóc vĩ đại của computer lượng tử nữa. Khi đó khó mà dự đoán khoa học sẽ còn tiến bộ vượt bậc đến đâu nữa và tạo ra những huyền thoại gì. Và tất nhiên khi đó chúng ta sẽ có dịp nhìn nhận lại rằng ai là người đã tiên đoán được khả năng siêu phàm của computer lượng tử như thế, và đã tiên đoán vào lúc nào. 4. Kết luận và nhận định bước đầuSẽ là quá sớm để đưa ra một kết luận khẳng định chung cuộc vào lúc này về công trình nghiên cứu của Kiều Tiến Dũng và của các nhà khoa học New Zealand nói trên. Bởi vì hiện nay computer lượng tử chưa ra đời, chúng đang được thai nghén trong các dự án nghiên cứu. Bất cứ khám phá nào, dù trên lý thuyết đúng 100%, cũng chỉ có thể được coi là một chân lý sau khi đã được thực nghiệm kiểm chứng. Tuy nhiên, về mặt lý thuyết, công trình nghiên cứu của Kiều Tiến Dũng được nhiều nhà vật lý - toán học và khoa học computer đánh giá cao, và đang nằm trong sự chú ý của giới khoa học computer trên toàn thế giới. Tiến sĩ Richard Gomez, giáo sư Đại học George Mason ở Mỹ, một chuyên gia có uy tín lớn trong khoa học computer hiện nay nhận định: "Tôi đã đọc các công trình của giáo sư Kiều Tiến Dũng và nhận thấy chúng đó hoàn toàn phù hợp với những khám phá của các nhà nghiên cứu khác trong lĩnh vực tính toán lượng tử và vật lý lượng tử. Không còn nghi ngờ gì nữa, hiện nay đã có một sự chấp nhận rộng rãi rằng thông tin mang tính chất vật lý, và vật lý lượng tử cung cấp những quy luật của sự ứng xử vật lý đó". Ông nói tiếp: "Đặc trưng kỳ lạ của cơ học lượng tử cho phép chúng ta làm việc với toàn bộ thông tin theo những cung cách hoàn toàn mới. Đơn giản là giáo sư Kiều đã biết lợi dụng những quy luật của vật lý lượng tử để đạt tới những kết quả mà trong thế giới của vật lý cổ điển không thể đạt tới được". Nếu lý thuyết của các nhà khoa học này được thực nghiệm trong tương lai sắp tới xác nhận, thì đây có thể sẽ là những thành tựu sánh ngang với những công trình bất hủ nhất của khoa học tính toán trong thế kỷ 20. Sự đánh giá này sẽ được kiểm nghiệm nhanh hay chậm tùy thuộc vào tốc độ phát triển của công nghệ computer lượng tử. Bản thân giáo sư Kiều Tiến Dũng cho rằng khoảng vài ba chục năm nữa computer lượng tử sẽ biến thành hiện thực. (Theo Tia Sáng) |
Thứ bảy, 26/10/2002, 08:06 (GMT+7) |
Quyết định của IBM dựa trên thực tế rằng hệ điều hành nguồn mở đã được đông đảo người dùng chấp nhận. Jose Moreira, phụ trách dự án Blue Gene, cho biết: "Linux có nhiều tính năng giúp chúng tôi xây dựng siêu máy tính. Mặt khác, nó khiến sản phẩm thông dụng và dễ dùng đối với người sử dụng". Đối với bộ phận máy chủ của IBM, Linux đã trở thành hệ điều hành chính. Trước đây, hãng dùng nhiều loại hệ điều hành: zOS cho máy tính lớn, AIX cho máy chủ Unix hạng trung... Theo Bill Claybrook, Giám đốc nghiên cứu Linux và phần mềm nguồn mở của Aberdeen Group, mấy năm tới, hệ điều hành này sẽ được sử dụng rộng rãi trong máy tính cao cấp vì yếu tố chi phí đang thu hút sự chú ý của nhiều cơ quan chính phủ cũng như đơn vị nghiên cứu và thương mại. Xét về lợi thế giá cả - chất lượng thì việc người dùng chọn hệ thống máy tính Linux thay vì Unix hay một số loại thiết bị cao cấp khác không có gì đáng ngạc nhiên, ông nói. "Nếu một cơ quan nghiên cứu được cấp 10 triệu USD, họ có thể mua máy tính chạy trên hệ điều hành Unix. Tuy nhiên, đơn vị sẽ tiết kiệm được 40% khi chọn thiết bị cài Linux. Điều này giúp họ có nhiều máy hơn". Nhưng nếu dùng Linux thì IBM phải giải quyết được vấn đề khả năng thay đổi tỷ lệ trong hệ thống. Giải pháp mà hãng đưa ra là chia nhiệm vụ của 64.000 nút trong siêu máy tính thành các đơn vị riêng. Khoảng 1.000 nút sẽ chạy bằng Linux, trong khi số còn lại sử dụng phần mềm chuyên biệt. Trong dòng siêu máy tính mới của IBM, model Blue Gene/L có thể thực hiện 200 nghìn tỷ phép tính/giây - lớn hơn tốc độ tính toán của 500 thiết bị hàng đầu hiện nay cộng lại. Nó có tính năng tự sửa, tự quản lý và tự thiết lập cấu hình. Năm 2005, Cơ quan an ninh hạt nhân quốc gia thuộc Bộ năng lượng Mỹ sẽ dùng thiết bị này để mô phỏng các vụ nổ, đám cháy, sự lão hoá của vật liệu... Cuối năm 1999, IBM công bố ý định đầu tư 100 triệu USD vào việc sản xuất dòng Blue Gene phục vụ công tác mô phỏng cấu trúc protein của người, cho phép các nhà nghiên cứu hiểu rõ hơn về bệnh tật và phương pháp chữa trị. Tại thời điểm đó, hãng cho rằng Blue Gene sẽ mạnh hơn 1.000 lần so với Deep Blue - siêu máy tính đánh bại vua cờ Garry Kasparov vào năm1997. Minh Long (theo NewsFactor, ZDN |
Thứ tư, 20/11/2002, 10:01 (GMT+7) | ||
Với hy vọng sẽ tăng sức cạnh tranh trước các đối thủ như IBM, Sun Microsystems, Hewlett-Packard, Intel vừa giới thiệu 12 sản phẩm thuộc dòng chip Xeon, bao gồm các chipset và phần cứng nền tảng dành cho máy chủ và máy trạm chạy bộ xử lý này.
Bộ xử lý Intel Xeon tốc độ 2,8 GHz, 2,6 GHz, 2,4 GHz và 2 GHz với bus 533 MHz đang được bán cho các đơn đặt 1.000 đơn vị với giá tương ứng 455 USD, 337 USD, 234 USD và 198 USD. Chipset Intel E7501 với một hub điều khiển PCI/PCI-X cho máy chủ chạy hai bộ xử lý có giá 92 USD, chipset Intel E7505 với hub điều khiển PCI/PCI-X cho máy trạm chạy hai bộ xử lý giá 100 USD, và Intel E7205 cho máy trạm có cấu hình tối thiểu được bán với giá 57 USD cho các đơn đặt 1.000 đơn vị. Intel hy vọng các nhà sản xuất thiết bị gốc (OEM) và nhà phân phối sẽ tung các hệ thống sử dụng những sản phẩm mới này ra thị trường trong vài tuần tới. Cùng ngày, Intel cũng hợp tác với Microsoft giới thiệu Windows .Net Server 2003 để tăng tốc độ của họ bộ xử lý Intel Itanium và Intel Xeon cho các máy chủ chạy nhiều bộ xử lý. Minh Nghĩa (theo IT)
Tương lai chip 64 bit ra sao?
Intel công bố chip Xeon mới cho máy chủ
|
Thứ bảy, 14/9/2002, 11:28 (GMT+7) |
Xeon mới có 512 KB bộ nhớ đệm thứ cấp và được sản xuất bằng công nghệ xử lý 0,13 micron. Sắp tới, các công ty sản xuất máy chủ trên toàn thế giới như Compaq, Dell, Egenera, Fujitsu-Siemens, Hewlett Packard, IBM, NEC, SuperMicro sẽ ra mắt người dùng các hệ thống chạy bộ xử lý này. Cùng ngày, Intel cũng công bố chip Xeon tốc độ 1,6 GHz tiêu thụ ít năng lượng dành cho máy chủ siêu mỏng. Thiết bị này được bán với giá 350 USD khi mua với số lượng lớn. Tại diễn đàn các nhà phát triển Intel, ông Mike Fister, Phó chủ tịch của Intel, cho biết cuối năm nay sẽ tung ra chipset có tên mã Granite Bay, Placer và Plumas dùng cho máy trạm và máy chủ. Các chipset này sử dụng bus hệ thống 533 MHz, giúp tốc độ máy chủ và máy trạm chạy nhanh hơn. Những sản phẩm trên cùng bộ xử lý Xeon sẽ có mặt trên thị trường vào quý IV. Minh Nghĩa (theo IT)
|
Thứ ba, 27/8/2002, 08:17 (GMT+7) | |||||||||||||||||||||||||||
Hôm nay, tập đoàn Intel giới thiệu các chip Pentium 4 tốc độ 2,8 GHz, 2,66 GHz, 2,6 GHz và 2,5 GHz dành cho máy để bàn. Còn AMD cũng tuyên bố sẽ tung ra 2 bộ xử lý Athlon mới vào đầu tháng 9. Tuy nhiên, trong cuộc đọ sức lần này, AMD đã bị hạ gục trước đối thủ nặng ký Intel. Bộ xử lý Pentium 4 tốc độ 2,8 GHz đã giúp Intel vượt xa AMD. Năm ngoái, AMD được coi là một ngôi sao sáng trong thế giới của những bộ vi xử lý, liên tục thách thức Intel trong nhiều thử nghiệm. Nhưng năm nay, Intel đã loại dần các lợi thế của AMD. Theo thử nghiệm gần đây, những hệ thống Pentium 4 hàng đầu đã vượt qua các PC Athlon XP tốt nhất trong thử nghiệm tốc độ PC World Bench 4. Tuy nhiên, theo các chuyên gia, chiến thắng đó dường như rất ngắn ngủi khi AMD phục hồi với chip mới vào cuối năm nay. Theo Intel, những bộ xử lý mới của hãng sẽ làm phong phú thêm chất lượng video và âm thanh. Đồng thời, các hệ thống chạy trên bộ xử lý Pentium 4 tốc độ cao còn là một khoản đầu tư giá trị đối với giáo dục trẻ em. Ông Louis Burns, Phó chủ tịch kiêm Giám đốc nhóm Desktop Platform của Intel, phát biểu: "Pentium 4 mới nhất khi kết hợp với chipset và hệ điều hành mới sẽ mang lại tốc độ và khả năng xử lý cao hơn cho máy tính. Người sử dụng có thể quét ảnh nhanh gấp 3 lần và xử lý ảnh nhanh hơn 4 lần so với dùng máy tính cũ", Với bộ nhớ đệm thứ cấp có dung lượng 512 K, khả năng tùy chọn bus hệ thống tốc độ 400 MHz hoặc 533 MHz và được sản xuất với quy trình 0,13 micron, bộ xử lý Pentium 4 tiếp tục định ra các tiêu chuẩn mới cho PC tốc độ cao. Sản phẩm này sẽ được đưa vào trong các PC mới của Dell, IBM, Gateway và một số hãng khác. Ngoài ra, Intel cũng chuẩn bị tung ra
chip Pentium 4
tốc độ 3 GHz vào dịp mùa lễ cuối năm nay. Dưới đây là biểu giá bộ xử lý tốc độ cao cho đơn đặt 1.000 bộ:
Về phía AMD, mới đây, hãng cũng tuyên bố sẽ tung ra 2 bộ xử lý Athlon mới vào đầu tháng 9, nhân kỷ niệm 3 năm ngày cho ra đời chip đầu tiên thuộc dòng chip Athlon. Hai chip mới, Athlon XP 2600 và XP 2400, lần lượt đạt tốc độ xử lý 2,133 GHz và 2 GHz. Giá ban đầu của 2600 và 2400 là 297 USD và 193 USD khi mua với số lượng 1.000 chip. Theo nhận định của các chuyên gia máy tính, tốc độ của XP 2600 và XP 2400 không cao như Pentium 4 tốc độ 2,8 GHz. Tuy nhiên, hai thế hệ chip này lại có điểm mạnh là khả năng hoạt động tốt, tính tương thích cao và có giá rẻ đáng kể. Cuối năm nay, AMD dự tính sẽ công bố CPU thế hệ thứ 8, tên mã là Hammer. Các chip này sẽ được thiết kế hoàn toàn mới và xuất hiện trong PC để bàn của các hãng sản xuất máy tính tên tuổi nhằm giúp AMD giành lại vị thế của mình trên thị trường vi xử lý. Minh Nghĩa |
Thứ tư, 10/7/2002, 09:35 (GMT+7) |
Hôm qua, công ty máy tính Intel tung ra sản phẩm Itanium 2 và một loạt phần mềm. Cùng ngày, những hãng máy tính hàng đầu như HP, IBM... cũng tuyên bố sẽ đưa ra các hệ thống máy chủ và trạm sử dụng bộ xử lý này. Itanium 2 là bộ xử lý thứ 2 thuộc dòng
Itanium, chip cấp doanh nghiệp mang đến cho các ứng dụng khả năng tính
toán kỹ thuật và xử lý dữ liệu tốc độ cao. Sản phẩm này có hai tốc độ:
900 MHz và 1 GHz, tích hợp cache L3 1,5
Các nhà sản xuất phần mềm dành cho doanh nghiệp hàng đầu thế giới đang xây dựng ứng dụng thương mại cho các hệ thống chạy Itanium 2, trong đó có BEA Weblogic, i2 Supply Chain và Factory Planner, IBM DB2 Websphere, Microsoft SQL Server 2000, Oracle9i Database và Oracle9i Application Server, Reuters financial services platforms, SAP R/3 và APO with LiveCache và SAS v9.0. Dòng xử lý Itanium được nhiều hệ điều hành hỗ trợ, chẳng hạn như Microsoft Windows Advanced Server, Limited Edition và Windows XP 64-Bit Edition; HP-UX của Hewlett-Packard; Linux của Caldera, MSC.Software, Red Hat, SuSE và TurboLinux. Thêm vào đó, Microsoft đã lên kế hoạch giới thiệu các phiên bản của Windows.NET Datacenter và Enterprise Server cho bộ xử lý Itanium 2. Intel cho biết các máy chủ và máy trạm chạy Itanium 2 có tốc độ nhanh gấp 2 lần những hệ thống chạy Itanium hiện hành. Bộ xử lý Itanium 2 hỗ trợ giao dịch khối lượng lớn, tính toán phức tạp. Tuy nhiên, nhiều nhà phân tích cho rằng Itanium 2 không sáng sủa hơn người anh của nó nhiều lắm. Điểm đáng lưu ý là các chip Itanium 2 đều xử lý ứng dụng 64 bit. Nhiều hãng máy tính và phần mềm lo ngại rằng việc viết các ứng dụng 64 bit hoặc chuyển đổi từ 32 bit sang 64 bit sẽ làm giá thành sản phẩm cao hơn. Do đó, hiện nay, một vài nhà sản xuất máy tính đã tỏ ra không mấy mặn mà với sản phẩm mới này. Bộ xử lý Itanium 2 của Intel sẽ được hỗ trợ bởi chipset E8870, có mặt trên thị trường vào mùa thu năm nay. Chipset này sẽ hỗ trợ các hệ thống có từ 2 đến 16 bộ xử lý, hoặc nhiều hơn. Intel cũng sẽ đưa ra 2 sản phẩm phần cứng nền tảng chạy bộ xử lý Itanium 2 dành cho các nhà xây dựng hệ thống. Sản phẩm SR870BN4, có mặt vào nửa cuối năm nay, là một bộ phần cứng được thiết kế theo kiểu mô đun mật độ cao dành cho môi trường doanh nghiệp hoặc những người dùng có nhu cầu tính toán tốc độ cao. Trong năm tới, Intel sẽ xuất xưởng phiên bản thế hệ mới của Itanium, chip có tên mã Madison. Minh Nghĩa Intel ra mắt bộ vi xử lý Itanium
|
Thứ hai, 28/5/2001, 08:48 (GMT+7) | ||
Intel quyết định giới thiệu chip Itanium của hãng vào ngày mai (29/5). Sản phẩm này được thiết kế dành cho các máy chủ và máy trạm tiên tiến, sẽ tiếp cận thị trường vào tháng tới. Itanium là bước tiến đầu tiên của Intel nhằm thống trị thị trường máy chủ cao cấp, mà hiện tại Sun Microsystem đang dẫn đầu với những bộ vi xử lý RISC đắt tiền. Theo giới phân tích, các máy tính sử dụng Itanium sẽ rẻ hơn những máy chủ Unix truyền thống của Sun và các hãng khác, ví dụ như PA-RISC của HP, UltraSPARC III dựa trên các máy chủ Sun Fire và máy trạm Sun Blade của Sun Microsystems. Tuy nhiên, nó sẽ có giá cao hơn những máy chủ sử dụng chip Pentium III Xeon hiện hành. Intel dự định cho thử nghiệm 40.000 chip Itanium. Ban đầu, sẽ có khoảng 8 đến 10 nhà sản xuất máy tính của hãng công bố từ 20 đến 60 ứng dụng dựa trên chip này. Nhưng hiện tại, Itanium sẽ chỉ làm việc với khoảng 7 hệ điều hành như các phiên bản HP-UX và AIX-5L của Unix, Windows của Microsoft, các phiên bản Linux 64 bit của Red Hat, Caldera, SuSE và TurboLinux. Chip mới sẽ được bán với các mức giá như sau: Đối với máy chủ, loại Itanium 800 MHz với 4 MB bộ nhớ cache thứ ba được bán 4.227 USD, loại Itanium 733 MHz với 2 MB bộ nhớ thứ ba có giá 3.500 USD. Đối với máy trạm, loại Itanium 733 MHz với 2 MB bộ nhớ sẽ được bán khoảng 1.000-2.000 USD, bằng giá bán của các chip Xeon hiện hành. Lần đầu tiên trong lịch sử bán hàng của Intel, loại Itanium 800 MHz với 2 MB bộ nhớ cũng sẽ được bán bằng giá với loại 733 MHz. Các hãng khác như HP cũng dự định giới thiệu ba loại sản phẩm Itanium mới: Một máy trạm i2000 với hai bộ vi xử lý trở lên và hai máy chủ sử dụng 4 và 16 bộ vi xử lý trong thời gian tới. Trong khi đó, Dell cũng đã công bố bán những máy chủ Itanium đầu tiên vào mùa hè này. IBM có kế hoạch tung ra một máy chủ và một máy trạm Intellistation dùng Itanium. Ngoài ra, Compaq và Gateway cũng sẽ ra mắt các máy chủ Itanium mới. M. Nghĩa - T. Tú (theo CNet, 28/5 |
Thứ năm, 25/4/2002, 09:50 (GMT+7)
|
AMD sẽ giữ nhãn hiệu Athlon dành riêng cho máy để bàn và xách tay. Hãng hy vọng sẽ lôi kéo được doanh nghiệp đang dùng chip Itanium của Intel sang sử dụng Opteron, đồng thời nuôi tham vọng chip Athlon mới sẽ vượt qua đối thủ Pentium 4 của Intel dành cho máy để bàn. Nhà phân tích Nathan Brookwood của công ty nghiên cứu Insight 64 cho biết “Đây là một bước tiến quan trọng của AMD. Nếu không có sự hỗ trợ của Microsoft, AMD sẽ gặp khó khăn trong việc tạo tên tuổi cho sản phẩm này trên thị trường”. Nhưng khác với Intel là tạo một cấu trúc hoàn toàn mới cho chip Itanium, AMD lại mở rộng kiến trúc x86 hiện hành, đã được sử dụng trong các máy tính từ hàng thập kỷ nay. Các chip Athlon thế hệ mới dự kiến được tung ra thị trường vào cuối năm nay. Dòng chip Opteron sẽ được xuất xưởng vào đầu năm sau. Thanh Tú (theo Ananova)
|