Gordon Moore: ‘Định luật Moore đã đi đến giới hạn'

Vnexpress.net

Ngày 19/4 tới, ngành công nghiệp điện toán sẽ kỷ niệm 40 năm ngày ra đời của định luật mang tên nhà đồng sáng lập hãng Intel. Tuy nhiên, tác giả của thuyết nối tiếng này tin rằng quá trình nhân đôi số transistor trên chip theo chu kỳ 2 năm không thể kéo dài lâu nữa.

Gordon Moore giới thiệu một tấm wafer (dùng làm chip) tại trụ sở Intel ở Santa Clara, California (Mỹ).

Dưới đây là trao đổi của Gordon Moore với một số hãng tin công nghệ quốc tế:

- Định luật Moore bắt nguồn từ đâu?

- Vào dịp kỷ niệm 35 năm của tạp chí Electronics vào năm 1965, tổng biên tập của họ mời tôi viết một bài báo về tương lai của các linh kiện bán dẫn trong vòng 10 năm tiếp theo. Tôi muốn trình bày ý tưởng về việc các mạch tích hợp (IC) sẽ là chìa khóa để tạo ra những thiết bị rẻ tiền hơn. Vì thế, tôi đặt ra phép ngoại suy về sau trở thành định luật này. Mạch điện lớn nhất vào thời điểm đó có khoảng 30 linh kiện bên trong. Tôi lần ngược lại lịch sử thì thấy con số đó bắt đầu từ 4,8,16...và cứ như vậy tăng gấp đôi mỗi năm. Lúc ấy tôi cũng không nghĩ điều này thực sự là chính xác và bản thân tôi chỉ muốn cố làm rõ rằng mọi thứ sẽ trở nên ngày càng tinh vi và rẻ tiền hơn. Cuối cùng, hóa ra điều mà tôi viết lại chính xác hơn cả mức bản thân tôi có thể tin. Một người bạn của tôi là giáo sư Carver Mead thuộc hãng Cal Tech đã đặt luôn tên cho phát hiện này là Định luật Moore và cứ thế người ta gọi nó như vậy. Suốt 20 năm tôi thậm chí không thể tự tin sử dụng cái tên đó và mãi về sau mới thấy chấp nhận được. Năm 1975, tôi thay đổi một số nội dung trong định luật và mọi thứ được giữ nguyên cho đến hiện nay. Vào thời điểm này, quy trình nhân đôi số transistor là xấp xỉ 24 tháng.

- Ông cảm nhận như thế nào về ý nghĩa của quá trình nhân đôi transistor này cũng như những cơ hội mà nó cho phép tạo ra?

- Tôi đọc lại bài báo mình viết và nhận thấy những vấn đề nhắc đến trong đó liên quan đến máy tính gia đình. Tôi rất ngạc nhiên khi thấy chính mình tìm ra tính quy luật như vậy. Thành thực mà nói tôi không biết mình đã dự báo một điều mang tính lý thuyết vào năm đó.

- Mọi thứ đang đi đến giới hạn và tốc độ nhân đôi bóng bán dẫn đã chậm dần. Những vật liệu mới có thể cho phép ngành công nghiệp máy tính vượt qua ngưỡng giới hạn?

- Với bất cứ vật liệu nào làm từ nguyên tử thì đều có một giới hạn cơ bản mà bạn không thể làm nhỏ hơn. Tôi đã thay đổi chu kỳ nhân đôi từ 1 năm lên 2 năm và dần dần có thể sẽ là 3-4 năm.

- Đã bao nhiêu lần người ta dự báo sự kết thúc của định luật Moore và bao nhiêu lần ông thực sự tin rằng điều đó sẽ xảy ra?

- - Trong 10 năm qua, tôi đã đọc rất nhiều bài báo viết về sự chấm dứt của tiến trình nhân đôi transistor trên chip. Có thời điểm tôi đã nghĩ rằng 1 micromet (1 phần triệu met) sẽ là giới hạn cuối cùng nhưng rồi mốc đó nhanh chóng bị vượt qua. Sau đó, tôi lại tin rằng 1/4 micromet sẽ là dấu chấm hết nhưng mọi thứ vẫn tiếp diễn. Giờ đây chúng ta đang ở mức dưới 1/10 micromet và đang tiến đến mức 1/65. Quá trình nhân đôi không thể kéo dài mãi mãi nhưng sự chấm hết sẽ chỉ đến trong ít nhất 10-20 năm nữa và đó cũng là khoảng thời gian mà chúng ta có thể dự báo.

- Thứ gì có thể thay thế silicon?

- Có thể là điện toán lượng tử hay công nghệ nano…Thực sự mà nói thì tôi vẫn rất hoài nghi về việc những thứ đó có khả năng thay thế hoàn toàn silicon kỹ thuật số. Bạn có thể dễ dàng tạo ra một transistor cực nhỏ bằng những công nghệ này với tần suất rất cao nhưng khó có thể kết nối hàng tỷ thứ đó lại với nhau. Đó chính là vấn đề. Mọi việc không đơn thuần chỉ là làm ra một transistor thật nhỏ.

Tôi coi công nghệ phát triển xoay quanh mạch tích hợp IC là phương pháp cơ bản để xây dựng các vi kiến trúc phức tạp. Thay vì bị thay thế, nó thực sự đang xâm nhập vào rất nhiều lĩnh vực khác. Chẳng hạn như chip gene. Silicon là một công nghệ rất mạnh mà sẽ còn được sử dụng rộng rãi. Tôi chưa thấy bất cứ thứ gì có tiềm năng thay thế nó.

Tuy nhiên, điều đó không có nghĩa là nhiều phát minh mới sẽ không thể được tích hợp lại, chẳng hạn việc tích hợp các ống nano carbon vào nhiều lớp kim loại hoặc tương tự như vậy. Dẫu sao, tôi vẫn chưa thấy đó là một giải pháp thay thế bóng bán dẫn silicon.

- Khi nhìn lại quãng đường đã qua, những sản phẩm nào có thể khiến ông thốt lên “Ái chà đúng là một tác phẩm đẹp”?

- Những thứ mà tôi cho là dấu mốc lại không phải là những tác phẩm đẹp mà là những sản phẩm có tính kinh tế cao. RAM động 1103 đầu tiên mà chúng tôi chế tạo tại Intel là một trong số đó. Đây chính là sản phẩm tạo doanh thu lớn thực sự đầu tiên của chúng tôi. Tiếp theo, tôi đánh giá rất cao bộ vi xử lý đầu tiên. Ban đầu, nó chạy rất chậm nhưng đã làm đúng tác vụ mà nó được thiết kế ra để hoàn thành. Cũng có rất nhiều thứ khác mang tính kinh tế cao nhưng tôi thường coi chúng là những sản phẩm mang tính cách mạng nhiều hơn.

- Ông nghĩ thế nào về việc sức mạnh điện toán liên tục được bổ sung theo định luật Moore có thể đem đến những chiếc computer có trí thông minh tương đương con người?

- Trí tuệ của con người, theo quan điểm của tôi, được tạo nên theo một cách khác xa so với máy tính. Tôi không cho rằng con đường mà chúng ta đang theo đuổi hiện nay sẽ đem đến một thứ gì đó giống như trí thông minh tự nhiên. Cái sức mạnh trí tuệ nhân tạo cần có để làm được những điều giống như bộ não vượt quá tất cả những gì chúng ta tạo ra trên trái đất này theo cách tiếp cận hiện tại.

- Chip đang ngày một nhỏ hơn trong khi đầu tư cho các nhà máy chế tạo thiết bị vi xử lý lại ngày càng trở nên đắt đỏ. Ông đánh giá ảnh hưởng của vấn đề này đối với ngành công nghiệp chế tạo chip như thế nào?

- Vào những năm 60 của thế kỷ trước, chi phí xây dựng cơ sở còn tương đối rẻ và vấn đề chưa có gì đáng kể. Mọi việc chỉ thực sự trở thành điểm nóng vào những năm 80 - trước đó yếu tố chi phí chủ yếu liên quan đến lao động và công nghệ. Các nhà máy chế tạo chip hiện nay đòi hỏi mức đầu tư từ 2,5 đến 3 tỷ USD nhưng ngược lại năng suất cao hơn nhiều. Khi Intel được thành lập vào năm 1968, chúng tôi dẫn đầu với công nghệ tấm wafer 2 inch. Còn hiện nay, các tấm wafer 12 inch với đường kính gấp 6 lần và diện tích gấp 36 lần cho phép chứa đựng nhiều thứ hơn và đem lại năng suất cao hơn nhiều.

- Ông có dự báo định luật gì mới cho 40 năm tới?

- Thôi, tôi xin chịu. Một vòng nguyệt quế cho định luật Moore này đã đủ rồi. Tất nhiên, cũng có thể có một định luật Moore phiên bản 2 nhưng người đẻ ra nó sẽ không phải là tôi.

- Ông dùng máy tính như thế nào?

- Tôi dành một nửa thời gian ngồi trước computer. E-mail là một phần quan trọng trong cuộc sống hằng ngày của tôi. Hiện nay, tôi đã nghỉ hưu và mỗi năm cư trú 6 tháng ở Hawaii. Nếu không có máy tính thì chả biết tôi sẽ liên lạc như thế nào. Trên máy tính, tôi dùng các chương trình bảng tính và phần mềm văn bản nhiều nhất. Tôi cũng hay chơi các game đơn giản và xử lý ảnh.

Phan Khương (vnexpress.net tổng hợp)

 

Công nghệ vật liệu chip đi gần đến giới hạn

 
Thứ hai, 21/3/2005, 11:14 GMT+7

 

Các công ty thiết bị bán dẫn sẽ sớm phải tìm ra một chất liệu thay thế tấm wafer silicon để chế tạo bộ vi xử lý nếu họ muốn duy trì nhịp độ phát triển như mong đợi.

Nhờ những bước tiến trong công nghệ sản xuất, ngành công nghiệp bán dẫn đã nâng cao được khả năng chế tạo ra những loại chip rẻ, tiêu thụ ít điện năng và công suất hoạt động mạnh hơn. Tuy nhiên, những tiến bộ này ngày càng khó đạt được khi mà thiết kế của chip ngày càng phải nhỏ hơn. Vật liệu silicon tinh khiết đang đi dần đến giới hạn.

Tấm silicon wafer dùng để chế tạo chip.

Đây không phải là lần đầu tiên ngành bán dẫn nỗ lực tìm kiếm một phương thức cải tiến tấm silicon. Hiện tại, kỹ thuật xử lý tiên tiến nhất trong việc chế tạo chip thương mại là công nghệ 90 nanomet (nm). Việc chuyển đổi từ công nghệ 130 nm sang 90 nm đã thu hẹp con đường mà các electron đi qua, để lại ít khoảng trống hơn cho chúng di chuyển giữa các phân tử của một tấm silicon wafer. Một giải pháp cho vấn đề này là silicon kéo căng (strained).

Chất silicon căng khắc phục thách thức nói trên bằng cách làm biến dạng tinh thể silicon nhằm tăng hoạt động của chip. Ở cấp độ phân tử, các tinh thể silicon giống như một lưới nhiều phân tử được sắp xếp gọn gàng. Kéo căng lưới này bằng cách dùng một lớp hợp chất silicon-germanium mỏng trên tấm wafer sẽ tạo ra thêm không gian lưu thông cho các electron, để chúng có thể di chuyển thông suốt với ít cản trở. Kỹ thuật này giúp các transistor chuyển đổi trạng thái nhanh hơn, cải thiện hoạt động nói chung và hạ thấp tiêu hao năng lượng.

Silicon căng phù hợp với các quy trình sản xuất tiên tiến nhất hiện nay và sẽ tiếp tục được dùng làm vật chất chính trong các công nghệ 65 và 45 nm. Tuy nhiên, đối với những công nghệ cao cấp hơn nữa thì cần phải có một loại chất khác.

Vấn đề ở đây là kích thước. Khi mà công nghệ xử lý trở nên tinh xảo hơn thì khoảng cách phân biệt các đặc tính trên một chip được giảm bớt còn khả năng lưu thông tự do của các electron giữa những vùng trên chip tăng lên. Chính sự lưu thông này làm tiêu hao năng lượng và cản trở các hoạt động trên chip. Tìm ra một vật liệu phù hợp để dùng trong các quy trình xử lý chip tương lai là điều có thể những mất nhiều thời gian, sức sáng tạo và tiền của. Đó không phải một rào chắn nhỏ mà là một bức tường rất cao phải trèo qua.

Vì chưa có câu trả lời cho vấn đề này nên silicon sẽ tiếp tục là nền tảng vật chất để chế tạo chip trong tương lai. Tuy nhiên, những chất liệu mới sẽ phải được bổ sung vào silicon nhằm tăng thêm các thuộc tính “cách” và “dẫn” cần thiết để những loại chip thế hệ mới hoạt động tốt. Các nhà nghiên cứu cho rằng, ở cấp độ xử lý dưới 45 nm, cần phải bắt đầu nghĩ đến một sự thay đổi có tính cách mạng về vật chất.

Tìm ra chất thay thế cho các tấm silicon wafer tinh khiết không phải là vấn đề duy nhất mà ngành công nghiệp chip phải đối mặt. Một thách thức khác ở cấp độ dưới 45 nm là việc “làm sạch” chip trong quá trình sản xuất. Các lực Van der Waals (lực hấp dẫn yếu giữa các phân tử) có thể thu nhận cả những phân tử không cần thiết, chẳng hạn hấp thu cả chất Bo (boron) với phân tử silicon. Với kích thước của những loại chip dùng công nghệ dưới 45 nm thì đây sẽ là một vấn đề nghiêm trọng, chưa thể giải quyết bằng những phương pháp hiện có. Lực hấp dẫn giữa các phân tử khác nhau có thể phá hỏng chip. Các kỹ thuật làm sạch hiện nay - sử dụng nước và hóa chất - không thể chiến thắng được các lực Van der Waals.

Các công ty chế tạo chip phải mất ít nhất vài năm để giải quyết vấn đề này trước khi có thể chuyển sang quy trình 45 nm. Intel, hãng sản xuất thiết bị xử lý số 1 thế giới, có kế hoạch chế tạo chip dùng công nghệ 65 nm trong năm nay và bắt đầu chuyển sang 45 nm vào 2007. Đến năm 2009, họ sẽ dùng công nghệ 32 nm và hai năm sau đó sẽ áp dụng quy trình 22 nm.

Phan Khương (theo InfoWorld

 

Bao giờ quy luật Moore đến giới hạn?

sgfsgdss

Gordon Moore.

Càng nhiều transistor tích hợp trên chip, khả năng xử lý của máy tính càng mạnh. Các bóng bán dẫn càng gần nhau thì khả năng truyền tín hiệu càng cao. Trong khi đó, các nhà nghiên cứu không ngừng chèn thêm linh kiện vào bộ xử lý. Nhưng quá trình này không thể kéo dài bất tận.

Năm 1965, Gordon Moore, đồng sáng lập hãng Intel, đưa ra tuyên bố nổi tiếng được gọi là “Quy luật Moore”: Số lượng bóng bán dẫn trên một chip sẽ liên tục tăng gấp đôi trong chu kỳ từ 18 đến 24 tháng. Trong 40 năm tiếp sau đó, lượng transistor đã tăng từ 2.300 lên 55 triệu và luật Moore tiếp tục chứng minh chân lý của nó. “Xét về nhiều mặt, chúng ta vẫn còn trong giai đoạn trứng nước của lĩnh vực vi xử lý”, Gordon Moore nói. “Còn rất nhiều điều mà ta có thể làm để chip mạnh hơn”.

Trong một chu trình giống như thuật in đá (lithography) khi chế tạo chip, các mạch điện được khắc axit lên silicon bằng cách chiếu ánh sáng qua một tấm màn. Cùng với việc cải tiến phương pháp sử dụng những bước sóng ngắn của ánh sáng, người ta có thể chế tạo những vi mạch ngày càng tinh xảo.

Tuy nhiên, theo tiến sĩ Dave Watson của hãng IBM, có một số khó khăn trong việc tiếp tục cải thiện hơn nữa quá trình nói trên và người ta đang bắt đầu chuyển sang sử dụng những bước sóng ánh sáng khác nhau, thay thế ánh sáng hiển thị thực bằng tia cực tím. Điều này cho phép ta sử dụng những bước sóng ngày càng ngắn hơn và nhờ đó có thể gắn thêm những linh kiện bé hơn nữa vào các bó vi mạch.

Mặc dù vậy, kể cả khi người ta có thể liên tục tinh xảo hóa quá trình lithography nói trên thì thách thức lớn nhất vẫn là nhiệt lượng tỏa ra khi chip trở nên quá nóng. “Các bộ vi xử lý tiêu thụ nhiều năng lượng hơn mức chúng thực tế cần để hoạt động và vì thế phát ra nhiệt lượng cao. Nguyên nhân chính là mật độ quá đông các linh kiện được gắn trên nó”, Watson nói. “Sẽ đến một giai đoạn khi mà bạn không thể khai thác sức mạnh toàn bộ các thành phần của chip cùng một lúc mà chỉ có thể dùng từng phần để giữ cho lượng nhiệt tỏa ra ở mức thấp nhất”.

Theo Watson, nếu nhìn vào công nghệ chip hiện nay, bộ phận lõi thực tế của thiết bị vi xử lý chỉ có thể dày khoảng 25 lớp nguyên tử silicon trong khi ta phải truyền điện giữa những bộ phận khác nhau. “Chính vì thế phải có hai thanh dẫn bằng đồng, ngăn cách bằng 25 lớp nguyên tử đó và các electron sẽ đơn giản nhảy từ mặt này sang mặt kia”, Watson giải thích. “Nếu càng làm nhỏ hơn nữa những yếu tố này, thì đơn giản là ta sẽ không thể kiểm soát các electron trong phạm vi một chip”.

Trước đây, các nhà phát triển thiết bị xử lý đã gặp phải những rào cản như vậy nhưng luật Moore luôn luôn đem lại một hướng đi mới để khắc phục. Sự thay đổi từ thanh dẫn bằng nhôm sang đồng trong chip cũng đồng nghĩa với việc tiết kiệm 30% năng lượng. Những loại chip cao cấp gần đây được làm từ chất gallium arsenide (Gali axênit) thay thế cho silicon thậm chí còn nâng công suất lên 40%. Tuy nhiên, kể cả khi khắc phục được vấn đề sức nóng, vật liệu mà tốc độ thì quá trình liên tục thu nhỏ cũng không thể diễn ra mãi mãi.

Nhiều chuyên gia dự báo, vào thập kỷ tới, luật Moore sẽ đạt đến giới hạn của nó và các hãng chế tạo chip sẽ không thể làm ra những dây dẫn mỏng hơn cấp độ nguyên tử. Khi đạt đến ngưỡng đó, nếu chúng ta vẫn muốn tăng cường sức mạnh cho thiết bị xử lý thì các nhà khoa học sẽ phải tiến hành một hướng đi khác.

Hiện nay, một trong những giải pháp được nhắc đến nhiều nhất chính là công nghệ lượng tử (quantum). Trong một máy tính quantum, dữ liệu được xử lý bằng cách khai thác những thuộc tính vật lý đặc biệt của lượng tử và các thành phần tính toán sẽ không phải là transistor mà là những nguyên tử được “bẫy”.

“Sự khác biệt giữa điện toán lượng tử và máy tính truyền thống là: trong cơ chế computer hiện nay, chúng ta xử lý các bit dữ liệu, mà tại một thời điểm nhất định, có thể là số 1 hoặc 0. Còn trong công nghệ lượng tử, chúng ta dùng đơn vị Qubit”, Giáo sư Andrew Briggs thuộc ngành vật liệu nano của đại học Oxford (Anh), giải thích. “Cái khác chính là mỗi Qubit biểu thị 1 hoặc 0 cùng một lúc. Ích lợi mà nó đem lại là chúng ta có thể áp dụng nhiều giải pháp khác nhau đồng thời cho một vấn đề”. Tổ hợp Qubit sẽ được thiết lập bằng cách sắp hàng những nguyên tử bị bẫy. Thay vì phải tìm ra một câu trả lời cụ thể cho một vấn đề, nhóm Qubit sẽ xác định tất cả những giải đáp khả thi với ít bước xử lý hơn nhiều so với điện toán truyền thống.

Phan Khương (theo BBC)

 

IBM phát triển công nghệ chip mới

 

Thứ năm, 11/9/2003, 17:30 GMT+7

 

Hôm 9/9, Meikei Ieong, Giám đốc phụ trách thiết bị tích hợp của IBM, cho biết hai kỹ thuật silicon căng (strained) và silicon trên chất cách điện (SOI) đã được kết hợp lần đầu tiên trong một công nghệ có tên SSDOI. Bước tiến này có thể nâng công suất bộ xử lý thêm 50% trong vòng 3 đến 5 năm tới.

 

SOI là một trong những kỹ thuật mà IBM đã sử dụng từ vài năm nay, trong đó bổ sung một lớp ôxít mỏng vào tấm silicon nhằm cách ly mạch. Mục đích của công nghệ này là duy trì cường độ dòng điện chạy qua một chip, giảm tiêu hao năng lượng và tăng khả năng linh hoạt của các electron trong một mạch điện. AMD hiện cũng sử dụng công nghệ này vào việc xây dựng bộ xử lý máy chủ Opteroncủa mình.

Công nghệ Silicon căng, dự kiến sẽ được áp dụng trên chip 90 nanomet của Intel, là công nghệ mà trong đó một lớp germanium silicon được thiết kế chồng lên lớp wafer, kéo căng các nguyên tử silicon để tạo điều kiện cho electron lưu thông nhanh hơn qua mạch. Cụ thể, các nhà nghiên cứu tạo một lớp silicon căng bên trên lớp silicon germanium, sau đó bổ sung lên trên cùng một lớp ôxít. Cấu trúc này sau đó được lật ngược lại và đặt lên một tấm wafer silicon thứ hai. Điều đó cho phép họ, vào cuối quá trình thiết kế, có thể loại bỏ lớp silicon germanium. Kết quả là các nhà thiết kế có thể nâng cao khả năng dẫn nhiệt của tấm wafer và loại bỏ tạp chất trong quá trình chế tạo phức tạp tiếp theo. Kỹ thuật này hiện nay cũng chưa áp dụng vào sản xuất các loại chip hiện hành mà sẽ có thể được dùng chế tạo loại chip 65 nanomet của IBM trong thời gian tới.

Bên cạnh SSDOI, Big Blue cũng đã phát triển một phương pháp khác để tăng cường hoạt động của các transistor bằng cách kết hợp nhiều chất nền khác nhau trên cùng một tấm wafer.

Từ trước đến nay, các công ty chế tạo chip thường sản xuất tấm wafer chỉ hỗ trợ transistor tích điện âm. Do đó, người thiết kế thường lựa chọn tối ưu hoá chất nền cho transistor cực điện này vì họ có thể cải thiện công suất của chip trên một tấm wafer mang dấu trừ (-). Vì thế, trên mọi bộ vi xử lý, transistor âm hoạt động với công suất tốt nhất trong khi các vi mạch mang dấu dương (+) lại không được tối ưu hoá.

Phương pháp của IBM hiện nay là tạo lớp vật liệu nền hỗ trợ transistor dương bên dưới bề mặt tấm wafer (tấm này hỗ trợ điện âm) và sau đó đục lỗ trên bề mặt nhằm đưa chất này lên trên. Điều này có nghĩa là bề mặt tấm wafer sẽ có định hướng điện âm dương kết hợp, nhờ đó tăng cường hoạt động của chip từ 40 đến 65%. Kỹ thuật này có thể được IBM sử dụng vào quá trình phát triển chip 90 nanomet, nhưng phải mất từ 3 đến 5 năm nữa mới có thể đưa vào sản xuất đại trà.

Phan Khương (theo InfoWorld)

 

 

Computer lượng tử có thể 'xử lý' bài toán không giải đượcợc

Thứ sáu, 13/6/2003, 17:02 GMT+7

Nhà khoa học Australia gốc Việt Kiều Tiến Dũng đã có một khám phá có thể làm cho nền toán học và khoa học computer của thế kỷ trước vượt qua được giới hạn của chính nó: Những bài toán từng được coi là "không giải được" hoặc "không tính được" có thể sẽ giải được bằng cách sử dụng những tính chất bí ẩn của cơ học lượng tử.

Công trình này hiện thu hút sự chú ý của nhiều nhà khoa học trên thế giới.

Hoàn toàn độc lập với Kiều Tiến Dũng, hai nhà khoa học New Zealand là Christian Calude và Boris Pavlov cũng đi đến những kết luận tương tự. Tạp chí New Scientist, một tạp chí tiên phong trong việc giới thiệu những tư tưởng mới trong khoa học, bình luận: Đó là một cuộc tấn công táo bạo vào chính những giới hạn của toán học, nhờ đó có thể lấy lại những kho báu mà chúng ta tưởng rằng vĩnh viễn sẽ nằm ở phía bên kia tầm với.

1- Giới hạn tính toán bằng computer

Alan Turing.

Mặc dù computer ngày nay làm được biết bao nhiêu điều kỳ diệu, nhưng nó có những hạn chế nội tại không thể vượt qua. Người có công khám phá ra điều này là Alan Turing (1912-1954), nhà toán học xuất sắc người Anh, chuyên gia giải mã kỳ tài của Anh trong Chiến tranh thế giới thứ II, được coi là một trong những cha đẻ của khoa học computer ngày nay.

Ngay từ năm 1936, Turing đã phác thảo ra thiết kế của một chiếc máy tính hoạt động theo chương trình, được gọi là máy Turing (Turing Machine). Về nguyên tắc, đó chính là cái mà bây giờ chúng ta gọi là computer. Sau chiến tranh ông dồn hết nỗ lực vào việc tìm nguyên lý hoạt động cho chiếc máy tưởng tượng của mình. Năm 1954, ông tự sát vì bị kết tội đồng tính luyến ái, để lại cho đời một tác phẩm bất hủ, được liệt vào danh sách 10 công trình khoa học tuyệt tác của thế kỷ 20: "On the Computability of Numbers" (Về khả năng có thể tính toán bằng số). Nội dung cơ bản của công trình này chỉ rõ khi nào một bài toán có thể giải được (bằng số) và khi nào thì không.

Gần như đồng thời, Alonzo Church, một nhà logic toán học nổi tiếng tại Đại học Princeton cũng cho công bố một bài báo nhan đề "Một bài toán không giải được của lý thuyết số sơ cấp" (An Unsolvable Problem of Elementary Numbertheory), trong đó chỉ ra rằng có những bài toán không thể giải được bằng thuật toán. Ngay lập tức, Turing chứng minh rằng kết luận của Church tương đương với kết luận của chính ông. Kết luận đó đã đi vào lịch sử của khoa học tính toán như một nguyên lý nền tảng về khả năng giải được hoặc không giải được của một bài toán, được gọi là Luận đề Turing-Church (Turing-Church Thesis) với nội dung cơ bản như sau:

Nếu một bài toán có thể giải được bằng cách sử dụng một tập hợp các quy tắc rõ ràng trong một số bước hữu hạn, thì bài toán đó có thể giải được bằng một chương trình trên computer, và ngược lại.

Thiết kế sơ bộ của máy Turing.

Nói một cách đơn giản: Một bài toán được coi là giải được nếu có thể tìm được một thuật toán hữu hạn để giải nó. Nếu không, bài toán là không giải được. Thực chất luận đề này là sự tổng quát hóa nguyên tắc lập trình cho computer hiện đại. Nó đã trở thành nền tảng, "sách gối đầu giường", một định nghĩa bất khả kháng của khoa học tính toán.

Sau khi khẳng định nguyên lý hoạt động cho chiếc máy của mình, Turing đặt vấn đề: Phải chăng có những bài toán đòi hỏi một thời gian vô hạn để giải? Và ông đã tìm ra một bài toán cụ thể thuộc loại đó - bài toán Tính dừng - SCTM (The Halting Problem) nổi tiếng. Nội dung cụ thể là:

Liệu có thể tiên đoán một chương trình cho trước sẽ ngừng hoặc chạy vòng quanh mãi mãi hay không? Turing trả lời: Không, không thể tiên đoán được. Do đó không thể khắc phục được sự cố này.

Trong khi sử dụng computer, ai cũng có thể gặp SCTM. Gặp sự cố này chúng ta chỉ có cách kiên trì chờ đợi hoặc bấm nút "restart" (khởi động lại). Các nhà khoa học computer sau này cũng tiếp tục xác nhận rằng không có ngôn ngữ chương trình nào (Pascal, BASIC, Prolog, C,...) có thể có được một công cụ cho phép khám phá ra mọi sai hỏng (bugs) dẫn tới ngưng hoạt động hoặc gây ra những vòng xử lý (processing loops) kéo dài vô tận.

Tính dừng là bài toán điển hình về hạn chế của computer. Sau này các nhà khoa học computer còn xác định được nhiều bài toán hạn chế khác như bài toán virus, bài toán tìm chương trình tối ưu cho một hoạt động định trước. Các nhà toán học cho rằng cơ sở logic của tính hạn chế này là Định lý bất toàn của Kurt Godel: Bất kỳ một hệ logic hình thức nào cũng không đủ mạnh để tự nó chứng minh nó phi mâu thuẫn, suy ra computer cũng không thể khắc phục được những sai hỏng trong những bài toán mà nó phải tự "xử lý" nó. Gregory Chaitin tại IBM còn cho rằng nguyên nhân của những hạn chế đó là ở chỗ tính ngẫu nhiên không phải chỉ tác động trong vật lý (như trong cơ học lượng tử), mà tác động ngay cả trong toán học. Chẳng hạn, số nguyên tố là hiện tượng mang tính ngẫu nhiên mà toán học không thể tìm ra những quy tắc xác định thống trị chúng. Tóm lại các hệ logic cũng chứa đựng tiềm ẩn tính bất định!

Với tất cả những lý lẽ đó, khoa học computer dựa trên Luận đề Turing-Church đã tự đặt ra một giới hạn không thể vượt qua. Đó là một kết luận mang ý nghĩa như một "chân lý không thể thay đổi", một nguyên lý "bất di bất dịch", một cột mốc "vĩnh viễn ở phía bên kia tầm với", một bức tường "bất khả xâm phạm".

Trong suốt hơn nửa thế kỷ qua, không ai dám vượt qua bức tường giới hạn đó.

2-Computer lượng tử sẽ cho phép vượt qua giới hạn

Kiều Tiến Dũng.

Năm 1984, sau khi đỗ bằng cử nhân toán - lý xuất sắc tại Đại học Queensland, Australia, Kiều Tiến Dũng nhận được học bổng làm luận án tiến sĩ tại Đại học Edinburgh ở Anh. Hoàn thành luận án năm 1988, ông trở thành giáo sư Đại học Edinburgh và Đại học Oxford. Năm 1991, ông trở về làm giáo sư Đại học Melbourne, đồng thời cộng tác nghiên cứu với các đại học danh tiếng nhất của Mỹ như Đại học Princeton, Đại học Columbia, Đại học MIT. Hiện ông là lãnh đạo nhóm nghiên cứu của CSIRO - Cơ quan nghiên cứu quốc gia của Australia, kiêm giáo sư vật lý lý thuyết tại Đại học Swinburne thuộc thành phố Melbourne.

Trong một công trình nghiên cứu ứng dụng các nguyên lý của cơ học lượng tử vào khoa học tính toán được gửi tới Viện nghiên cứu quốc gia Mỹ ở Los Alamos gần đây, giáo sư Kiều Tiến Dũng đã đưa ra một kết luận hết sức quan trọng: "Chúng tôi bác bỏ Luận đề Turing-Church bằng cách chỉ ra rằng tồn tại những bài toán không giải được theo nguyên lý Turing, nhưng có thể giải được bằng cách thực hiện những quy trình cơ học lượng tử xác định rõ ràng". Nói cách khác, giáo sư Dũng đã khám phá ra rằng những bài toán không giải được bằng computer hiện nay thực ra có thể giải được bằng computer lượng tử - computer dựa trên nguyên lý mã hóa lượng tử.

Theo NewsFctor, công trình của giáo sư Kiều có thể bắn một phát đạn trúng hai đích: Bài toán số 10 của David Hilbert và SCTM của Alan Turing.

Năm 1900, trong Hội nghị toán học thế giới họp tại Paris, Hilbert, một trong những nhà toán học lớn nhất thời đó, nêu lên 23 bài toán chưa giải được như một thách thức đối với toán học thế kỷ 20. Bài toán số 10 có nội dung như sau: "Hãy tìm một phương pháp để xác định xem liệu một phương trình Diophantine có giải được hay không?".

Phương trình Diophantine là phương trình đại số dạng đa thức nhiều biến với hệ số nguyên, nghiệm nguyên. Thí dụ Định lý Pythagoras hoặc Định lý cuối cùng của Fermat là những thí dụ cụ thể của phương trình Diophantine. Có thể phát biểu lại bài toán số 10 như sau: Liệu có thể tìm được một thuật toán hoặc một chương trình computer để tìm nghiệm nguyên của một phương trình đại số dạng đa thức nhiều biến với hệ số nguyên hay không?

Năm 1970, bài toán số 10 được các nhà khoa học computer chứng minh rằng nó tương đương với bài toán "Xác định xem liệu một chương trình computer định trước có thể giải được những phương trình đại số đa thức hay không, hay sẽ bị treo hoặc dừng?". Từ đó thấy rằng bài toán số 10 của Hilbert tương đương với SCTM của Turing - một bài toán không giải được.

Giáo sư Kiều Tiến Dũng tuyên bố ông có thể giải được cả hai bài toán trên. Ông giải thích, với cơ học lượng tử, chúng ta có thể sử dụng một "thuật toán lượng tử" để tìm kiếm một số vô hạn lời giải khả dĩ thích hợp với phương trình trong một khoảng thời gian hữu hạn. Đây là đặc điểm quan trọng nhất của computer lượng tử - yếu tố hơn hẳn và khác biệt hẳn của computer lượng tử so với computer thông thường hiện nay.

David Hilbert.

Nếu có thể xem xét tất cả các lời giải có thể có thì đương nhiên sẽ biết phương trình có thể giải được bằng thuật toán của chúng ta hay không, và cũng sẽ biết computer lượng tử có bị treo hay không, tức là cùng một lúc có thể giải được cả bài toán số 10 của Hilbert lẫn SCTM của Turing.

Giáo sư Dũng nhấn mạnh: "Thuật toán lượng tử của chúng tôi, thực ra, được xem như một cuộc tìm kiếm vô hạn các số nguyên trong một khoảng thời gian hữu hạn - kiểu tìm kiếm cần thiết để giải bài toán Tính dừng của Turing".

Nhưng tại sao computer lượng tử lại có khả năng phi thường đến như thế? Câu trả lời phụ thuộc vào cơ sở vật lý của computer lượng tử - những nguyên lý kỳ lạ của thế giới lượng tử mà thế giới thông thường không có.

 

3. Cơ sở vật lý trong khám phá của giáo sư Kiều Tiến Dũng

Ngôn ngữ cơ bản của computer là hệ nhị phân - dãy chữ số gồm 1 và 0. Số 1 tương ứng với trạng thái mạch điện đóng và ngược lại, số 0 tương ứng với trạng thái mạch điện mở và ngược lại quan hệ tương ứng này là 1-1. Nói cách khác, mỗi trạng thái vật lý của mạch điện tương ứng với một thông tin duy nhất và ngược lại. Trong computer lượng tử, tình hình diễn ra hoàn toàn khác: Các hạt lượng tử, chẳng hạn electron và protons, cùng một lúc có thể tồn tại trong những trạng thái lượng tử khác nhau.

Các nhà khoa học mô tả đó là sự tồn tại trong một "siêu vị thế trạng thái" (superposition of states). Tính chất này đến nay vẫn là một đặc trưng bí ẩn của thế giới lượng tử mà bản chất của nó chưa ai có thể giải thích rõ ràng chính xác. Một số người mô tả nó như một biểu hiện "rối lượng tử" (quantum entanglement), một số khác coi đó như một trong các biểu hiện bất định. Chẳng hạn, điều rất kỳ lạ là trong cùng một lúc các hạt lượng tử có thể đồng thời quay quanh trục (spining) theo chiều thuận kim đồng hồ lẫn chiều ngược kim đồng hồ, hoặc cùng một lúc có thể đồng thời đạt những mức năng lượng khác nhau. Nhưng dù chưa giải thích được bản chất của hiện tượng siêu trạng thái, các nhà nghiên cứu computer lượng tử vẫn đang tìm cách lợi dụng tính chất bí ẩn đó để xây dựng một thế hệ computer hoàn toàn mới - computer lượng tử - trong đó tại mỗi thời điểm computer có thể đồng thời có hàng nghìn trạng thái khác nhau, tức là tại mỗi thời điểm computer có thể đồng thời thực hiện hàng nghìn phép toán khác nhau.

Điều này dẫn tới kết quả computer lượng tử có thể xử lý một lượng thông tin vô hạn trong một thời gian hữu hạn. Đó chính là cơ sở vật lý của khám phá của Kiều Tiến Dũng, Christian Calude và Boris Pavlov.

Với khám phá này, không phải chỉ có bài toán số 10 của Hilbert hoặc SCTM của Turing sẽ được giải, mà sẽ có hẳn một lớp các bài toán không giải được sẽ được giải, với công cụ mới là computer lượng tử. Giả thuyết Golbach (Golbach' s Conjecture) có thể sẽ là một trong lớp đó. Giả thuyết này nói rằng mọi số chẵn đều là tổng của hai số nguyên tố. Giả sử bạn có thể viết được một chương trình cho computer lượng tử để, trong một thời gian hữu hạn, kiểm tra một số lượng vô hạn các thí dụ cụ thể (điều mà computer thông thường không thể làm vì đòi hỏi thời gian vô hạn). Nếu bạn tìm thấy một trường hợp sai, tức là Giả thuyết Golbach sai, bài toán chấm dứt. Nếu chương trình chạy trên máy hoàn thành mà không phát hiện thấy trường hợp sai, suy ra giả thuyết đúng. Một bài toán khác trong lớp đó có thể sẽ là Giả thuyết Riemann (Riemann's Hypothesis), một "chướng ngại lớn" của toán học đang được treo một giải thưởng trị giá 1 triệu USD cho ai giải được, có thể cũng sẽ được computer lượng tử trong tương lai giải quyết. Và nếu quả thật lớp những bài toán "ghê gớm" này đều được giải quyết hết thì không còn gì có thể so sánh nổi với tầm vóc vĩ đại của computer lượng tử nữa. Khi đó khó mà dự đoán khoa học sẽ còn tiến bộ vượt bậc đến đâu nữa và tạo ra những huyền thoại gì. Và tất nhiên khi đó chúng ta sẽ có dịp nhìn nhận lại rằng ai là người đã tiên đoán được khả năng siêu phàm của computer lượng tử như thế, và đã tiên đoán vào lúc nào.

4. Kết luận và nhận định bước đầu

Sẽ là quá sớm để đưa ra một kết luận khẳng định chung cuộc vào lúc này về công trình nghiên cứu của Kiều Tiến Dũng và của các nhà khoa học New Zealand nói trên. Bởi vì hiện nay computer lượng tử chưa ra đời, chúng đang được thai nghén trong các dự án nghiên cứu. Bất cứ khám phá nào, dù trên lý thuyết đúng 100%, cũng chỉ có thể được coi là một chân lý sau khi đã được thực nghiệm kiểm chứng. Tuy nhiên, về mặt lý thuyết, công trình nghiên cứu của Kiều Tiến Dũng được nhiều nhà vật lý - toán học và khoa học computer đánh giá cao, và đang nằm trong sự chú ý của giới khoa học computer trên toàn thế giới.

Tiến sĩ Richard Gomez, giáo sư Đại học George Mason ở Mỹ, một chuyên gia có uy tín lớn trong khoa học computer hiện nay nhận định: "Tôi đã đọc các công trình của giáo sư Kiều Tiến Dũng và nhận thấy chúng đó hoàn toàn phù hợp với những khám phá của các nhà nghiên cứu khác trong lĩnh vực tính toán lượng tử và vật lý lượng tử. Không còn nghi ngờ gì nữa, hiện nay đã có một sự chấp nhận rộng rãi rằng thông tin mang tính chất vật lý, và vật lý lượng tử cung cấp những quy luật của sự ứng xử vật lý đó". Ông nói tiếp: "Đặc trưng kỳ lạ của cơ học lượng tử cho phép chúng ta làm việc với toàn bộ thông tin theo những cung cách hoàn toàn mới. Đơn giản là giáo sư Kiều đã biết lợi dụng những quy luật của vật lý lượng tử để đạt tới những kết quả mà trong thế giới của vật lý cổ điển không thể đạt tới được".

Nếu lý thuyết của các nhà khoa học này được thực nghiệm trong tương lai sắp tới xác nhận, thì đây có thể sẽ là những thành tựu sánh ngang với những công trình bất hủ nhất của khoa học tính toán trong thế kỷ 20. Sự đánh giá này sẽ được kiểm nghiệm nhanh hay chậm tùy thuộc vào tốc độ phát triển của công nghệ computer lượng tử.

Bản thân giáo sư Kiều Tiến Dũng cho rằng khoảng vài ba chục năm nữa computer lượng tử sẽ biến thành hiện thực.

(Theo Tia Sáng)

 

Thứ tư, 25/6/2003, 08:30 GMT+7

Máy tính lượng tử - 'bước nhảy vọt' của CNTT thế kỷ 21?

 

Giấc mơ của nhiều chuyên gia tin học hiện nay là tận dụng hiệu quả từ những phản ứng có chiều hướng ngày càng phức tạp của các thiết bị điện tử khi chúng được thiết kế nhỏ dần. Đó chính là việc ứng dụng lý thuyết lượng tử để tạo ra sự đột phá của ngành công nghệ thông tin (CNTT).

Các kỹ sư hy vọng sẽ sử dụng được một trong những nguyên lý của thuyết lượng tử - "Nguyên tắc bất

Click vào ảnh
Ý tưởng về mạch lượng tử.

định" - để thiết kế những cỗ máy có khả năng thực hiện cùng lúc nhiều phép tính quy mô lớn, vượt xa cả công năng lý thuyết của các máy tính thông thường hiện nay.

Xây dựng một máy tính lượng tử ứng dụng vẫn còn là điều khó khăn. Tuy nhiên, những bước đi đầu tiên trong lĩnh vực này đang được thực hiện. Tiến sĩ Stephan Gulde và các đồng sự tại trường Đại học Insbruck (Áo) đã xây dựng mô hình thử nghiệm với bộ phận hoạt động chủ đạo là một nguyên tử calcium đơn và cho các chương trình chạy trên nguyên tử này.

Những máy tính thông thường hiện nay thao tác theo đơn vị số nhị phân là bit. Trong khi đó, máy tính lượng tử tính toán theo đơn vị qubit, tức là số nhị phân lượng tử. Mỗi bit biểu thị một giá trị số 1 hoặc 0. Tuy nhiên, dựa theo "Nguyên tắc bất định" (nguyên tắc này cho rằng không bao giờ có thông tin hoàn hảo về phản ứng của một vật thể cực nhỏ), một qubit biểu thị đồng thời cả giá trị 1 và 0. Điều này cho phép mỗi qubit tham gia vào hơn một phép tính cùng lúc. Đó là lý do tại sao một máy tính lượng tử có thể đồng thời thực hiện các phép tính toán cực lớn. Tuy nhiên, đặt giá trị ban đầu cho qubit rất khó và việc đọc kết quả cũng vậy.

 

Theo các chuyên gia của IBM, tiềm năng của máy tính lượng tử là khả năng giải quyết cực nhanh những vấn đề phức tạp mà các siêu máy tính mạnh nhất hiện nay dù mất hàng triệu năm cũng không tìm ra lời giải.

Việc đánh giá giá trị của qubit được thể hiện qua thí nghiệm đồng xu của David Deutsch và Richard Jozsa, hai nhà tiên phong trong lĩnh vực tính toán lượng tử. Thông thường, để xem hai mặt của một đồng xu ta phải lật nó lại. Như vậy là mất hai bước. Trong khi đó, Deutsch và Jozsa dùng tính toán lượng tử để cùng lúc xem cả hai mặt của một đồng xu (giả tưởng) sau khi nó được tung lên. Một qubit sẽ là sự kết hợp bình quân giữa mặt sấp và mặt ngửa.

Tiến sĩ Gulde (Đại học Insbruck, Áo) thực hiện thí nghiệm của mình bằng cách chặn một nguyên tử (Ion) calcium tích điện trong một cái "bẫy" điện trường dao động, sau đó xử lý bằng ánh sáng từ một máy phát laser. Thay vì đốt nóng nguyên tử này, quá trình chiếu laser làm cho nó giải phóng năng lượng dưới dạng ánh sáng và nguội dần. Quá trình làm nguội giảm bớt những ảnh hưởng bên ngoài lên các thuộc tính của nguyên tử. Hai trong số những thuộc tính ấy là tính chất điện tử của Ion (mức độ năng lượng của các electron bên trong nó) và tính chất rung (sự cộng hưởng của nó trong "bẫy"). Việc tính toán được thực hiện bằng những đợt phóng laser tác động lên cả hai thuộc tính trên của nguyên tử. Kết quả cho ra ở dạng mã hoá. Để đọc kết quả đó, những đợt laser sẽ tiếp tục được chiếu vào Ion, kích thích cho nó lộ ra dưới dạng ánh sáng.

Tại hội nghị về vi mạch điện tử tổ chức thường niên vào mùa hè, ở Đại học Stanford (Mỹ), với sự hiện diện của nhiều hãng công nghệ như IBMSwitchOn, SiliconAccess, EmpowerTel, Vitesse, C-Port… đại diện của IBM đã giới thiệu dự án nghiên cứu của họ về một máy tính lượng tử 215Hz, với bộ xử lý 5-qubit. Hiện nay, đây là máy tính lượng tử lớn nhất trên thế giới - 5 qubit trong một phân tử đơn. Phân tử này bao gồm 5 nguyên tử flo, mỗi nguyên tử biểu thị 1 qubit.

Nhóm nghiên cứu của IBM, do Isaac Chung chỉ đạo, đã theo đuổi dự án này từ cuối những năm 80. Máy tính 5 qubit là thành công mới nhất của họ, có khả năng giải quyết vấn đề xác định trình tự. Điều này có liên quan đến việc phá mã chỉ trong một bước và nó cũng quyết định chu kỳ của một chức năng. Các máy tính kỹ thuật số hiện nay giải quyết vấn đề này bằng cách sử dụng sự lặp đi lặp lại các giá trị của một chức năng. Qubit sẽ đưa ra một mức độ hoàn toàn mới. Về bản chất, qubit biểu thị đồng thời tất cả các giá trị có thể của các dữ liệu khác nhau được nhập vào, nhờ đó máy tính lượng tử có khả năng xem xét mọi giá trị khả thi đầu vào ngay lập tức và chỉ cần một bước để giải quyết vấn đề. Đây là nguyên tắc cơ bản trong phép tính toán song song, nghĩa là xử lý thông tin song song ở cấp độ bit.

Máy tính lượng tử 5 qubit của IBM là một bước tiến lớn trong lĩnh vực này. Nhưng vẫn còn một chặng đường dài trước khi nó có thể cạnh tranh được với các siêu máy tính kỹ thuật số hiện nay do vẫn còn một số hạn chế như: tuổi thọ của hệ thống ngắn và sự điều khiển từ bên ngoài đối với một cỗ máy lượng tử còn tương đối khó khăn (trong quá trình diễn ra hoạt động tính toán, các qubit tương tác với nhau theo một phương thức gắn kết chặt chẽ, giống như cùng ở trong một cái "bẫy", và độc lập với những yếu tố của môi trường bên ngoài máy tính).

Tuy nhiên, một số nhà nghiên cứu tin tưởng rằng máy tính lượng tử sẽ giải quyết được cản trở đó trong thập kỷ này. Nếu những khó khăn liên quan đến các phương pháp phân tử có thể được khắc phục thì quá trình sản xuất mạch silicon sẽ tiến bộ đáng kể. Mạch lượng tử có thể được tạo ra bằng cách sử dụng những phản ứng hoá học được tự động kiểm soát. Điều này có thể biến những kiến thức hiện nay về vi mạch trở nên lỗi thời. Mặc dù vậy, từ nay tới lúc đó, các nhà thiết kế và sản xuất bộ xử lý vẫn phải tiếp tục biện pháp sản xuất chip hiện hành.

 

Phú Khương (theo The Economist)

 

Thứ năm, 30/10/2003, 11:45 GMT+7

 

Một nhóm kỹ sư của Viện nghiên cứu vật lý & hoá học Nhật Bản phối hợp với hãng NEC đã thử nghiệm thành công một trong hai khối thành phần cơ sở trong một thiết bị thể rắn 2 qubit. Đây được coi là bước đột phá trên con đường dài chế tạo máy tính theo công nghệ vật lý này.

 

Các nhà nghiên cứu đã xây dựng một cổng NOT có kiểm soát (CNOT). Đây là một khối cơ sở tạo nền cho việc tính toán lượng tử, tương tự như cổng NAND dùng cho máy tính thông thường. CNOT là một trong hai cổng được sử dụng với qubit (quantum bit - bit lượng tử). Cổng còn lại, cơ chế quay mang 1 qubit, đã được nhóm này thử nghiệm thành công năm 1999. Tsai Jaw-Shen, Trưởng nhóm kỹ sư, cho biết một trong những mục tiêu của ông là phải kết hợp được hai khối này để tạo ra cái gọi là 'cổng tổng thể'. Đó mới chính là thành phần cốt lõi thực sự của một máy tính lượng tử. Nhiệm vụ tiếp theo sẽ là thực hiện thử nghiệm một số thuật toán dựa trên cơ cấu đó.

Qubit có thuộc tính đáng chú ý là chúng không chỉ mang con số 1 hoặc 0 trong hệ nhị phân mà còn chồng lên nhau với cả hai trạng thái trên cùng lúc. Khi mà số lượng qubit tăng lên, thì số trạng thái này cũng tăng tỷ lệ thuận. 2 qubit có thể mang 4 trạng thái, cùng được xử lý một lúc. 3 qubit có thể có tới 8 trạng thái và cứ như vậy con số tăng dần.

Một hệ thống chỉ cần 10 qubit có thể thực hiện đồng thời 1.024 phép toán giống như một hệ thống xử lý song song cực lớn. Cỗ máy với 40 qubit có thể giải quyết cùng lúc 1 nghìn tỷ phép toán và với 100 qubit số lượng nhiệm vụ được hoàn thành có thể lên tới 1024. Điều đó có thể biến những công việc tính toán, chẳng hạn như xác định hệ số các số nguyên tố (mà ngay cả những siêu máy tính mạnh nhất hiện nay cũng khó làm được) trở thành những nhiệm vụ tầm thường. Ví dụ, việc lập hệ số của một con số nhị phân 256 bit có thể sẽ được hoàn tất trong 10 giây nhờ máy tính lượng tử, trong khi công việc này có thể mất 10 triệu năm nếu dùng máy Blue Gene của IBM.

Một trong những khó khăn lớn nhất hiện nay mà các nhà nghiên cứu đang đối mặt là việc kéo dài khoảng thời gian mà trong đó 2 qubit được kết hợp trong một tình trạng mà người ta gọi là “bẫy lượng tử”. Khi ở trong trạng thái này, hai qubit phối hợp với nhau mặc dù chúng không kết dính. Tháng 2 năm nay, nhóm của Tsai Jaw-Shen đã thử nghiệm thành công việc bẫy qubit này.

Quá trình nghiên cứu máy tính lượng tử hiện vẫn còn ở giai đoạn đầu và các chuyên gia trên thế giới đều cho rằng phải mất ít nhất 10 năm nữa mới có thể phát triển được một cỗ máy tương đối hoàn thiện. Nếu đạt được điều đó, máy tính lượng tử sẽ tạo ra một cuộc cách mạng trong một số lĩnh vực của ngành tin học.

Phan Khươngg (theo ComputerWorld

 

AMD trình làng chip Opteron

Thứ tư, 23/4/2003, 01:00 GMT+

Hôm qua, nhà sản xuất chip có trụ sở tại bang California (Mỹ) giới thiệu bộ vi xử lý 64 bit đầu tiên của mình mang tên mã Sledgehammer. Sản phẩm được thiết kế cho máy chủ doanh nghiệp đắt tiền - lĩnh vực béo bở do đối thủ Intel chiếm giữ.

Khác với bộ xử lý máy chủ Xeon của nhà sản xuất chip lớn nhất thế giới, Sledgehammer cho phép khách hàng chạy cả 2 loại ứng dụng: 32 và 64 bit. AMD cho biết Opteron 240 (tương đương với Xeon 2.6) có giá bán 283 USD, trong khi Opteron 244 (tương đương Xeon 3.06) được bán với giá 794 USD.  

Quảng cáo bắt mắt của AMD.
Quảng cáo bắt mắt của AMD.
"Với dòng Opteron, mỗi năm AMD có thể tăng 2 điểm phần trăm thị phần máy chủ, từ 2% trong năm 2002 lên 10% vào năm 2006", Nathan Brookwood, nhà phân tích của công ty nghiên cứu Insight 64, nhận định.

 

AMD dự định tung ra bộ xử lý Athlon 64 bit dành cho máy tính để bàn với tên mã Clawhammer vào tháng 9. Tuy nhiên, Intel - công ty đang chiếm 80% thị phần bộ xử lý PC - chưa có kế hoạch cạnh tranh cụ thể.

Theo Công ty dữ liệu quốc tế, Xeon của Intel đang thống trị thị trường máy chủ, theo sau là chip Sparc của Sun Microsystems. Hiện nay, bộ xử lý Itanium 64 bit của nhà Intel thường được sử dụng trong máy chủ đắt tiền (trị giá ít nhất 25.000 USD), nhưng không hỗ trợ các chương trình ứng dụng 32 bit.

Minh Long (theo Reuters)

 

Siêu máy tính của IBM dùng Linux

Thứ bảy, 26/10/2002, 08:06 (GMT+7)

 

Nhà sản xuất máy tính khổng lồ của Mỹ quyết định chọn hệ điều hành Linux để chạy dòng siêu máy tính mạnh nhất của hãng - Blue Gene. Các thiết bị có tốc độ tính toán tối đa 1 petaflop (1 triệu tỷ phép tính/giây) sẽ được xuất xưởng vào cuối năm 2005 hoặc đầu 2006.

Quyết định của IBM dựa trên thực tế rằng hệ điều hành nguồn mở đã được đông đảo người dùng chấp nhận. Jose Moreira, phụ trách dự án Blue Gene, cho biết: "Linux có nhiều tính năng giúp chúng tôi xây dựng siêu máy tính. Mặt khác, nó khiến sản phẩm thông dụng và dễ dùng đối với người sử dụng".

Đối với bộ phận máy chủ của IBM, Linux đã trở thành hệ điều hành chính. Trước đây, hãng dùng nhiều loại hệ điều hành: zOS cho máy tính lớn, AIX cho máy chủ Unix hạng trung...

Theo Bill Claybrook, Giám đốc nghiên cứu Linux và phần mềm nguồn mở của Aberdeen Group, mấy năm tới, hệ điều hành này sẽ được sử dụng rộng rãi trong máy tính cao cấp vì yếu tố chi phí đang thu hút sự chú ý của nhiều cơ quan chính phủ cũng như đơn vị nghiên cứu và thương mại. 

Xét về lợi thế giá cả - chất lượng thì việc người dùng chọn hệ thống máy tính Linux thay vì Unix hay một số loại thiết bị cao cấp khác không có gì đáng ngạc nhiên, ông nói. "Nếu một cơ quan nghiên cứu được cấp 10 triệu USD, họ có thể mua máy tính chạy trên hệ điều hành Unix. Tuy nhiên, đơn vị sẽ tiết kiệm được 40% khi chọn thiết bị cài Linux. Điều này giúp họ có nhiều máy hơn".  

Nhưng nếu dùng Linux thì IBM phải giải quyết được vấn đề khả năng thay đổi tỷ lệ trong hệ thống. Giải pháp mà hãng đưa ra là chia nhiệm vụ của 64.000 nút trong siêu máy tính thành các đơn vị riêng. Khoảng 1.000 nút sẽ chạy bằng Linux, trong khi số còn lại sử dụng phần mềm chuyên biệt.

Trong dòng siêu máy tính mới của IBM, model Blue Gene/L có thể thực hiện 200 nghìn tỷ phép tính/giây - lớn hơn tốc độ tính toán của 500 thiết bị hàng đầu hiện nay cộng lại. Nó có tính năng tự sửa, tự quản lý và tự thiết lập cấu hình. Năm 2005, Cơ quan an ninh hạt nhân quốc gia thuộc Bộ năng lượng Mỹ sẽ dùng thiết bị này để mô phỏng các vụ nổ, đám cháy, sự lão hoá của vật liệu...  

Cuối năm 1999, IBM công bố ý định đầu tư 100 triệu USD vào việc sản xuất dòng Blue Gene phục vụ công tác mô phỏng cấu trúc protein của người, cho phép các nhà nghiên cứu hiểu rõ hơn về bệnh tật và phương pháp chữa trị. Tại thời điểm đó, hãng cho rằng Blue Gene sẽ mạnh hơn 1.000 lần so với Deep Blue - siêu máy tính đánh bại vua cờ Garry Kasparov vào năm1997.

Minh Long (theo NewsFactor, ZDN

 

Bộ xử lý Xeon mới cho máy chủ

 

Thứ tư, 20/11/2002, 10:01 (GMT+7)

 

Với hy vọng sẽ tăng sức cạnh tranh trước các đối thủ như IBM, Sun Microsystems, Hewlett-Packard, Intel vừa giới thiệu 12 sản phẩm thuộc dòng chip Xeon, bao gồm các chipset và phần cứng nền tảng dành cho máy chủ và máy trạm chạy bộ xử lý này.

Theo phát ngôn viên của Intel, đây là đợt giới thiệu sản phẩm lớn nhất của hãng.

Intel bắt đầu xuất xưởng 4 loại chip Xeon mới thiết kế cho dòng máy chủ và máy trạm hai bộ xử lý. Chip được sản xuất với công nghệ mới 0,13 micromet, cho phép Intel đẩy tốc độ Xeon lên đến 2,8 GHz với 512 KB bộ nhớ đệm tích hợp sẵn. Ngoài ra, Intel còn cho ra đời 3 loại chipset và 5 loại máy chủ Xeon mới để thúc đẩy sức tiêu thụ chip.

Bộ xử lý Intel Xeon tốc độ 2,8 GHz, 2,6 GHz, 2,4 GHz và 2 GHz với bus 533 MHz đang được bán cho các đơn đặt 1.000 đơn vị với giá tương ứng 455 USD, 337 USD, 234 USD và 198 USD. Chipset Intel E7501 với một hub điều khiển PCI/PCI-X cho máy chủ chạy hai bộ xử lý có giá 92 USD, chipset Intel E7505 với hub điều khiển PCI/PCI-X cho máy trạm chạy hai bộ xử lý giá 100 USD, và Intel E7205 cho máy trạm có cấu hình tối thiểu được bán với giá 57 USD cho các đơn đặt 1.000 đơn vị.

Intel hy vọng các nhà sản xuất thiết bị gốc (OEM) và nhà phân phối sẽ tung các hệ thống sử dụng những sản phẩm mới này ra thị trường trong vài tuần tới.

Cùng ngày, Intel cũng hợp tác với Microsoft giới thiệu Windows .Net Server 2003 để tăng tốc độ của họ bộ xử lý Intel Itanium và Intel Xeon cho các máy chủ chạy nhiều bộ xử lý.

Minh Nghĩa (theo IT)

 

Tương lai chip 64 bit ra sao?

Thứ sáu, 4/10/2002, 11:11 (GMT+7)

 

Intel và AMD đang phát triển bộ vi xử lý 64 bit với hy vọng thay đổi thị trường máy tính. Nhưng liệu những chip này có được người dùng, đặc biệt là các doanh nghiệp, hào hứng đón nhận?  

"Người ta đã thổi phồng quá mức sự ra đời và phát triển của máy tính 64 bit trong tương lai", Peter Kastner, Phó giám đốc điều hành công ty nghiên cứu Aberdeen Group, nhận định.

Kế hoạch bị trì hoãn, công nghệ chưa hoàn thiện và nhu cầu không có là những lý do khiến thị trường 64 bit dậm chân tại chỗ. Năm 2000, HP cho rằng doanh số bộ xử lý Itanium 64 bit sẽ vượt con số chip 32 bit bán ra vào cuối năm nay. Rõ ràng, dự đoán này đã không thành sự thực. Trong khi Itanium của Intel thu hút sự chú ý của đông đảo giới chuyên môn, chip Clawhammer 64 bit của AMD vẫn trong giai đoạn thử nghiệm. Đối thủ nặng ký nhất của Intel đã phải hoãn kế hoạch trình làng sản phẩm chiến lược này.

Khi cuộc chiến bộ xử lý 64 bit bùng nổ, nó sẽ giống với cuộc đua giành thị phần máy tính để bàn diễn ra nhiều năm nay: Intel luôn dẫn đầu còn AMD cố gắng bám gót. Theo IDC, thị phần máy tính cá nhân toàn cầu của AMD giảm từ 19,8% trong quý I năm nay xuống còn 16,8% trong quý II, còn thị phần của Intel tăng từ 79,3% lên 81,9%.

Tuy nhiên, AMD đã nỗ lực nhiều trong việc phát triển công nghệ 64 bit mà nhờ đó hãng có thể bứt phá chiếm lĩnh thị trường. Thiết kế chip của AMD cho phép nó tương thích ngược với các chương trình 32 bit - một đặc tính có ý nghĩa sống còn đối với thị trường tiêu dùng. Chip này sử dụng đặc điểm kỹ thuật x86 như những bộ vi xử lý máy tính cá nhân hiện nay.

"Liệu bộ xử lý 64 bit tương thích với 32 bit có thành công và đưa AMD lên tầm cao mới?", ông Kastner đặt câu hỏi. "Đó là điều mà các nhà đầu tư cổ phiếu đang thèm muốn". Kastner nói rằng bản thân ông thận trọng hơn khi nhận định về tương lai của 64 bit. "Đối với giới kinh doanh toàn cầu như chúng tôi, lợi ích mà nó đem lại không nhiều".  

Tuy vậy, việc tung ra bộ vi xử lý tương thích với phần mềm ứng dụng 32 bit có thể giúp AMD vượt qua một trở ngại lớn trong việc phát triển máy tính 64 bit. Hiện nay, tất cả chương trình ứng dụng phổ biến đều được xây dựng trên cấu trúc 32 bit.  

AMD tin rằng khả năng tương thích ngược sẽ giúp hãng có lợi thế hơn Intel và không cần phải thuyết phục người dùng từ bỏ máy tính 32 bit đang rất thông dụng. Theo Cathy Abbinanti, phát ngôn viên của AMD, Intel đã không chịu đầu tư vào tính năng này: "Họ đang ép buộc các nhà phát triển phần mềm viết lại toàn bộ mã. Chúng tôi tin rằng, họ không có công nghệ để nắm bắt và đáp ứng nhu cầu của thị trường".

Dù AMD và Intel có chuẩn bị kỹ cho cuộc chiến 64 bit thì khả năng chiến thắng một sớm một chiều vẫn mong manh. Hiện có rất ít phần mềm ứng dụng hưởng lợi từ 64 bit. Theo Kastner, những chương trình "dùng vô vàn con số và cần rất nhiều bộ nhớ" sẽ sử dụng công nghệ này. "Một số middleware, đặc biệt là cơ sở dữ liệu, cũng như các chương trình quản lý tin tức và khoa học có thể tận dụng bộ nhớ 64 bit", ông nói.

Nhưng ngay cả những ứng dụng này cũng không đủ sức thuyết phục doanh nghiệp từ bỏ cấu trúc 32 bit hay giảm đầu tư vào máy tính cài hệ điều hành Unix. "Intel với Itanium và AMD với Clawhammer sẽ phải cạnh tranh khốc liệt với các hãng phát triển Unix như Sun và IBM", Kastner nhận định.

Ngoài ra, sự phát triển của bộ vi xử lý 64 bit còn phụ thuộc vào Linux. Nếu hệ điều hành này nhanh chóng được sử dụng rộng rãi thì chip mới sẽ được hậu thuẫn phần nào. 

AMD đang cố gắng khai thác thị trường Linux. Mới đây, công ty sử dụng chip Opteron cùng phiên bản 64 bit của hệ điều hành Linux trong một máy chủ 4 đường để chứng minh khả năng làm việc của Opteron trong máy chủ trung và cao cấp.

Với nhận định cấu trúc 32 bit sẽ chuyển sang 64 bit một cách từ từ, phân tích gia của IDC - Mark Melenovsky - cho rằng, bằng cách tập trung vào Linux, AMD sẽ có nhiều cơ hội "chiếm một chỗ đứng trên thị trường".

Minh Long (theo E-Commerce Times)

 

 

Intel công bố chip Xeon mới cho máy chủ

 

Thứ bảy, 14/9/2002, 11:28 (GMT+7)

Bộ xử lý Xeon này tốc độ 2,6 GHz và 2,8 GHz được thiết kế cho máy chủ và máy trạm chạy 2 bộ xử lý. Các sản phẩm được tung ra thị trường sớm hơn kế hoạch 3 tháng, có giá tương ứng là 433 USD và 562 USD khi mua 1.000 bộ.

Xeon mới có 512 KB bộ nhớ đệm thứ cấp và được sản xuất bằng công nghệ xử lý 0,13 micron. Sắp tới, các công ty sản xuất máy chủ trên toàn thế giới như Compaq, Dell, Egenera, Fujitsu-Siemens, Hewlett Packard, IBM, NEC, SuperMicro sẽ ra mắt người dùng các hệ thống chạy bộ xử lý này.

Cùng ngày, Intel cũng công bố chip Xeon tốc độ 1,6 GHz tiêu thụ ít năng lượng dành cho máy chủ siêu mỏng. Thiết bị này được bán với giá 350 USD khi mua với số lượng lớn.

Tại diễn đàn các nhà phát triển Intel, ông Mike Fister, Phó chủ tịch của Intel, cho biết cuối năm nay sẽ tung ra chipset có tên mã Granite Bay, Placer và Plumas dùng cho máy trạm và máy chủ. Các chipset này sử dụng bus hệ thống 533 MHz, giúp tốc độ máy chủ và máy trạm chạy nhanh hơn.

Những sản phẩm trên cùng bộ xử lý Xeon sẽ có mặt trên thị trường vào quý IV.

Minh Nghĩa (theo IT)

 

AMD và Intel tiếp tục cuộc chiến về bộ vi xử lý

Thứ ba, 27/8/2002, 08:17 (GMT+7)
Liệu Hammer có thể giúp AMD giành lại vị thế trước đối thủ Intel?

Hôm nay, tập đoàn Intel giới thiệu các chip Pentium 4 tốc độ 2,8 GHz, 2,66 GHz, 2,6 GHz và 2,5 GHz dành cho máy để bàn. Còn AMD cũng tuyên bố sẽ tung ra 2 bộ xử lý Athlon mới vào đầu tháng 9. Tuy nhiên, trong cuộc đọ sức lần này, AMD đã bị hạ gục trước đối thủ nặng ký Intel.

Bộ xử lý Pentium 4 tốc độ 2,8 GHz đã giúp Intel vượt xa AMD.

Năm ngoái, AMD được coi là một ngôi sao sáng trong thế giới của những bộ vi xử lý, liên tục thách thức Intel trong nhiều thử nghiệm. Nhưng năm nay, Intel đã loại dần các lợi thế của AMD. Theo thử nghiệm gần đây, những hệ thống Pentium 4 hàng đầu đã vượt qua các PC Athlon XP tốt nhất trong thử nghiệm tốc độ PC World Bench 4. Tuy nhiên, theo các chuyên gia, chiến thắng đó dường như rất ngắn ngủi khi AMD phục hồi với chip mới vào cuối năm nay.

Theo Intel, những bộ xử lý mới của hãng sẽ làm phong phú thêm chất lượng video và âm thanh. Đồng thời, các hệ thống chạy trên bộ xử lý Pentium 4 tốc độ cao còn là một khoản đầu tư giá trị đối với giáo dục trẻ em.

Ông Louis Burns, Phó chủ tịch kiêm Giám đốc nhóm Desktop Platform của Intel, phát biểu: "Pentium 4 mới nhất khi kết hợp với chipset và hệ điều hành mới sẽ mang lại tốc độ và khả năng xử lý cao hơn cho máy tính. Người sử dụng có thể quét ảnh nhanh gấp 3 lần và xử lý ảnh nhanh hơn 4 lần so với dùng máy tính cũ",

Với bộ nhớ đệm thứ cấp có dung lượng 512 K, khả năng tùy chọn bus hệ thống tốc độ 400 MHz hoặc 533 MHz và được sản xuất với quy trình 0,13 micron, bộ xử lý Pentium 4 tiếp tục định ra các tiêu chuẩn mới cho PC tốc độ cao. Sản phẩm này sẽ được đưa vào trong các PC mới của Dell, IBM, Gateway và một số hãng khác.

Ngoài ra, Intel cũng chuẩn bị tung ra chip Pentium 4 tốc độ 3 GHz vào dịp mùa lễ cuối năm nay.

Mỗi khi giới thiệu chip mới, Intel thường hạ giá chip Pentium và Celeron đã có mặt trên thị trường trước đó, ví dụ như chip Pentium 4 tốc độ 2,53 GHz từ 637 USD hạ giá còn 253 USD.

Dưới đây là biểu giá bộ xử lý tốc độ cao cho đơn đặt 1.000 bộ:

Bộ xử lý

Tốc độ

Bộ nhớ đệm thứ cấp

Tốc độ bus hệ thống

Giá (USD)

Pentium 4

 2,80GHz

512 K

533 MHz

508

Pentium 4

2,66 GHz

512 K

533 MHz

401

Pentium 4

2,60 GHz

512 K

400 MHz

401

Pentium 4

2,50 GHz

512 K

400 MHz

243

     

Về phía AMD, mới đây, hãng cũng tuyên bố sẽ tung ra 2 bộ xử lý Athlon mới vào đầu tháng 9, nhân kỷ niệm 3 năm ngày cho ra đời chip đầu tiên thuộc dòng chip Athlon. Hai chip mới, Athlon XP 2600 và XP 2400, lần lượt đạt tốc độ xử lý 2,133 GHz và 2 GHz. Giá ban đầu của 2600 và 2400 là 297 USD và 193 USD khi mua với số lượng 1.000 chip.

Theo nhận định của các chuyên gia máy tính, tốc độ của XP 2600 và XP 2400 không cao như Pentium 4 tốc độ 2,8 GHz. Tuy nhiên, hai thế hệ chip này lại có điểm mạnh là khả năng hoạt động tốt, tính tương thích cao và có giá rẻ đáng kể.

Cuối năm nay, AMD dự tính sẽ công bố CPU thế hệ thứ 8, tên mã là Hammer. Các chip này sẽ được thiết kế hoàn toàn mới và xuất hiện trong PC để bàn của các hãng sản xuất máy tính tên tuổi nhằm giúp AMD giành lại vị thế của mình trên thị trường vi xử lý.

Minh Nghĩa

 

Itanium 2 của Intel bắt đầu xuất xưởng

Thứ tư, 10/7/2002, 09:35 (GMT+7)
 

 

Hôm qua, công ty máy tính Intel tung ra sản phẩm Itanium 2 và một loạt phần mềm. Cùng ngày, những hãng máy tính hàng đầu như HP, IBM... cũng tuyên bố sẽ đưa ra các hệ thống máy chủ và trạm sử dụng bộ xử lý này.

Itanium 2 là bộ xử lý thứ 2 thuộc dòng Itanium, chip cấp doanh nghiệp mang đến cho các ứng dụng khả năng tính toán kỹ thuật và xử lý dữ liệu tốc độ cao. Sản phẩm này có hai tốc độ: 900 MHz và 1 GHz, tích hợp cache L3 1,5 MB hoặc 3 MB, giá tương ứng là 1.338 USD và 4.226 USD.

Các nhà sản xuất phần mềm dành cho doanh nghiệp hàng đầu thế giới đang xây dựng ứng dụng thương mại cho các hệ thống chạy Itanium 2, trong đó có BEA Weblogic, i2 Supply Chain và Factory Planner, IBM DB2 Websphere, Microsoft SQL Server 2000, Oracle9i Database và Oracle9i Application Server, Reuters financial services platforms, SAP R/3 và APO with LiveCache và SAS v9.0.

Dòng xử lý Itanium được nhiều hệ điều hành hỗ trợ, chẳng hạn như Microsoft Windows Advanced Server, Limited Edition và Windows XP 64-Bit Edition; HP-UX của Hewlett-Packard; Linux của Caldera, MSC.Software, Red Hat, SuSE và TurboLinux.

Thêm vào đó, Microsoft đã lên kế hoạch giới thiệu các phiên bản của Windows.NET Datacenter và Enterprise Server cho bộ xử lý Itanium 2.

Intel cho biết các máy chủ và máy trạm chạy Itanium 2 có tốc độ nhanh gấp 2 lần những hệ thống chạy Itanium hiện hành. Bộ xử lý Itanium 2 hỗ trợ giao dịch khối lượng lớn, tính toán phức tạp.

Tuy nhiên, nhiều nhà phân tích cho rằng Itanium 2 không sáng sủa hơn người anh của nó nhiều lắm. Điểm đáng lưu ý là các chip Itanium 2 đều xử lý ứng dụng 64 bit. Nhiều hãng máy tính và phần mềm lo ngại rằng việc viết các ứng dụng 64 bit hoặc chuyển đổi từ 32 bit sang 64 bit sẽ làm giá thành sản phẩm cao hơn. Do đó, hiện nay, một vài nhà sản xuất máy tính đã tỏ ra không mấy mặn mà với sản phẩm mới này.

Bộ xử lý Itanium 2 của Intel sẽ được hỗ trợ bởi chipset E8870, có mặt trên thị trường vào mùa thu năm nay. Chipset này sẽ hỗ trợ các hệ thống có từ 2 đến 16 bộ xử lý, hoặc nhiều hơn.

Intel cũng sẽ đưa ra 2 sản phẩm phần cứng nền tảng chạy bộ xử lý Itanium 2 dành cho các nhà xây dựng hệ thống. Sản phẩm SR870BN4, có mặt vào nửa cuối năm nay, là một bộ phần cứng được thiết kế theo kiểu mô đun mật độ cao dành cho môi trường doanh nghiệp hoặc những người dùng có nhu cầu tính toán tốc độ cao.

Trong năm tới, Intel sẽ xuất xưởng phiên bản thế hệ mới của Itanium, chip có tên mã Madison.

Minh Nghĩa

Intel ra mắt bộ vi xử lý Itanium

 

Thứ hai, 28/5/2001, 08:48 (GMT+7)

Itanium cạnh tranh với sản phẩm của AMD và Transmeta.

Intel quyết định giới thiệu chip Itanium của hãng vào ngày mai (29/5). Sản phẩm này được thiết kế dành cho các máy chủ và máy trạm tiên tiến, sẽ tiếp cận thị trường vào tháng tới.

Itanium là bước tiến đầu tiên của Intel nhằm thống trị thị trường máy chủ cao cấp, mà hiện tại Sun Microsystem đang dẫn đầu với những bộ vi xử lý RISC đắt tiền. Theo giới phân tích, các máy tính sử dụng Itanium sẽ rẻ hơn những máy chủ Unix truyền thống của Sun và các hãng khác, ví dụ như PA-RISC của HP, UltraSPARC III dựa trên các máy chủ Sun Fire và máy trạm Sun Blade của Sun Microsystems. Tuy nhiên, nó sẽ có giá cao hơn những máy chủ sử dụng chip Pentium III Xeon hiện hành.

Intel dự định cho thử nghiệm 40.000 chip Itanium. Ban đầu, sẽ có khoảng 8 đến 10 nhà sản xuất máy tính của hãng công bố từ 20 đến 60 ứng dụng dựa trên chip này. Nhưng hiện tại, Itanium sẽ chỉ làm việc với khoảng 7 hệ điều hành như các phiên bản HP-UX và AIX-5L của Unix, Windows của Microsoft, các phiên bản Linux 64 bit của Red Hat, Caldera, SuSE và TurboLinux.

Chip mới sẽ được bán với các mức giá như sau: Đối với máy chủ, loại Itanium 800 MHz với 4 MB bộ nhớ cache thứ ba được bán 4.227 USD, loại Itanium 733 MHz với 2 MB bộ nhớ thứ ba có giá 3.500 USD. Đối với máy trạm, loại Itanium 733 MHz với 2 MB bộ nhớ sẽ được bán khoảng 1.000-2.000 USD, bằng giá bán của các chip Xeon hiện hành. Lần đầu tiên trong lịch sử bán hàng của Intel, loại Itanium 800 MHz với 2 MB bộ nhớ cũng sẽ được bán bằng giá với loại 733 MHz.

Các hãng khác như HP cũng dự định giới thiệu ba loại sản phẩm Itanium mới: Một máy trạm i2000 với hai bộ vi xử lý trở lên và hai máy chủ sử dụng 4 và 16 bộ vi xử lý trong thời gian tới. Trong khi đó, Dell cũng đã công bố bán những máy chủ Itanium đầu tiên vào mùa hè này. IBM có kế hoạch tung ra một máy chủ và một máy trạm Intellistation dùng Itanium. Ngoài ra, Compaq và Gateway cũng sẽ ra mắt các máy chủ Itanium mới.

M. Nghĩa - T. Tú (theo CNet, 28/5

Microsoft hỗ trợ chip mới của AMD

Thứ năm, 25/4/2002, 09:50 (GMT+7)

 

Hôm qua, AMD công bố sẽ hợp tác với Microsoft để đưa dòng chip Hammer 64 bit mới vào hệ điều hành Windows. Các chip mới sẽ chạy trong các máy chủ và máy trạm với tên gọi “Opteron”.

AMD sẽ giữ nhãn hiệu Athlon dành riêng cho máy để bàn và xách tay. Hãng hy vọng sẽ lôi kéo được doanh nghiệp đang dùng chip Itanium của Intel sang sử dụng Opteron, đồng thời nuôi tham vọng chip Athlon mới sẽ vượt qua đối thủ Pentium 4 của Intel dành cho máy để bàn.

Nhà phân tích Nathan Brookwood của công ty nghiên cứu Insight 64 cho biết “Đây là một bước tiến quan trọng của AMD. Nếu không có sự hỗ trợ của Microsoft, AMD sẽ gặp khó khăn trong việc tạo tên tuổi cho sản phẩm này trên thị trường”. Nhưng khác với Intel là tạo một cấu trúc hoàn toàn mới cho chip Itanium, AMD lại mở rộng kiến trúc x86 hiện hành, đã được sử dụng trong các máy tính từ hàng thập kỷ nay.

Các chip Athlon thế hệ mới dự kiến được tung ra thị trường vào cuối năm nay. Dòng chip Opteron sẽ được xuất xưởng vào đầu năm sau.

Thanh Tú (theo Ananova)