Lịch sử điện toán đám mây

Để thảo luận các vấn đề xung quanh điện toán đám mây trước hết phải đặt nó trong một điều kiện hoàn cảnh lịch sử cụ thể.

attachment

Điện toán đám mây là xu hướng quan trọng nhất trong nền công nghiệp công nghệ thông tin. Ngay cả những nhà phê bình lớn nhất dường như đồng ý rằng: Điện toán đám mây là một trong những thay đổi mô hình quan trọng nhất của thập kỷ qua. Nhưng đó là tất cả và nó xuất phát từ đâu? Và lịch sử điện toán đám mây hình thành phát triển như thế nào ?

Điện toán đám mây đã phát triển thông qua một số giai đoạn trong đó bao gồm lưới điện và điện toán tiện ích, cung cấp dịch vụ ứng dụng (Application Service Provider), và phần mềm như dịch vụ (Software as a Service).

Nhưng khái niệm bao quát về phân phối tài nguyên tính toán thông qua một mạng lưới toàn cầu bắt nguồn từ những năm sáu mươi.

Các ý tưởng về một “mạng máy tính giữa các thiên hà” đã được giới thiệu trong một bài viết của JCR Licklider, người chịu trách nhiệm tạo điều kiện cho sự phát triển của ARPANET vào năm 1969.

Tầm nhìn của ông đã cho phép mọi người trên toàn cầu được kết nối với nhau, các chương trình truy cập và dữ liệu ở trang web nào, từ bất cứ nơi nào, Theo giải thích Margaret Lewis, giám đốc tiếp thị sản phẩm của AMD. “Đó là một tầm nhìn có vẻ rất giống như những gì chúng ta đang gọi điện toán đám mây”. Bởi vì mỗi trang tính cho môi trường của chúng ta.

Các chuyên gia khác thuộc tính khái niệm đám mây với máy tính nhà khoa học John McCarthy đã đề xuất ý tưởng về tính toán được giao như là một tiện ích công cộng, tương tự như các văn phòng dịch vụ mà ngày trở lại những năm sáu mươi.

Kể từ những năm sáu mươi, điện toán đám mây đã phát triển cùng một số ngành, với Web 2.0 là sự phát triển gần đây nhất. Tuy nhiên, kể từ khi có Internet với băng thông kết nối tăng lên đáng kể trong những năm 1990, điện toán đám mây cho công chúng có được một cái gì đó của một thành tựu phát triển.

Một trong những cột mốc đầu tiên cho điện toán đám mây là sự xuất hiện của Salesforce.com năm 1999, mà đi tiên phong trong khái niệm của các ứng dụng doanh nghiệp cung cấp thông qua một trang web đơn giản. Công ty dịch vụ mở đường cho cả chuyên gia và các công ty phần mềm chính thống để cung cấp các ứng dụng trên Internet
Sự phát triển tiếp theo là Amazon Web Services trong năm 2002, trong đó cung cấp một bộ các dịch vụ dựa trên đám mây bao gồm lưu trữ, tính toán và ngay cả trí tuệ nhân tạo thông qua Amazon Mechanical Turk.

Sau đó vào năm 2006, Amazon ra mắt điện toán đám mây Elastic Compute của nó (EC2) là một dịch vụ web thương mại cho phép các công ty nhỏ, cá nhân thuê máy tính mà trên đó để chạy các ứng dụng máy tính của mình.

“Amazon EC2/S3 là một dịch vụ cơ sở hạ tầng điện toán đám mây có thể truy cập rộng rãi đầu tiên”, Jeremy Allaire, giám đốc điều hành của Brightcove. Brightcove chuyên cung cấp SaaS nền tảng video trực tuyến đến Vương quốc Anh đài truyền hình và báo chí.
Một cột mốc lớn đã đến trong năm 2009, với Web 2.0 là bước tiến triển lớn, và Google và các công ty khác bắt đầu cung cấp các ứng dụng doanh nghiệp dựa trên trình duyệt, dịch vụ như Google Apps.

“Sự đóng góp quan trọng nhất để điện toán đám mây đã được sự xuất hiện của ứng dụng sát thủ (killer apps) của các hãng công nghệ khổng lồ hàng đầu như Microsoft và Google. Khi các công ty này cung cấp dịch vụ một cách đáng tin cậy và dễ chấp nhận, hiệu quả thúc đẩy cho ngành công nghiệp các dịch vụ trực tuyến nhìn chung được chấp nhận rộng rãi hơn”, ông Dan Germain, giám đốc công nghệ tại Cobweb Solution.

Các nhân tố khác cũng rất quan trọng thúc đẩy rõ rệt sự phát triển của điện toán đám mây bao gồm các lớn mạnh của công nghệ ảo hóa, sự phát triển phổ cập của băng thông tốc độ cao, và các tiêu chuẩn phần mềm có tính tương thích toàn cầu, Jamie Turner, một nhà tiên phong điện toán đám mây của Anh đã viết như vậy.

Trong năm 2008, Nick Carr, một chuyên gia công nghệ thông tin cộng tác với nhiều tờ báo chuyên ngành uy tín, thường nhận xét về sáng kiến mới của IBM được gọi là Dự án KittyHawk, dự án này đưa vào sử dụng công nghệ mới có tên là Blue Gene. Dự án mong muốn tạo ra một “máy tính quy mô toàn cầu được chia sẻ có khả năng lưu trữ toàn bộ Internet như là một ứng dụng”.

Những tiền đề của bài viết này là công nghệ Blue Gene tạo ra các máy tính với năng lực mà trung tâm dữ liệu có thể cung cấp một lượng lớn năng lực tính toán mà các doanh nghiệp có thể cắm vào (plug in) và sử dụng theo nhu cầu tại một thời gian cụ thể.

Các siêu máy tính có thể mô phỏng các máy chủ riêng lẻ nhỏ hơn nhiều (được ảo hóa) để các doanh nghiệp của họ có thể chuyển các ứng dụng công nghệ thông tin của họ tới mô hình mới này.

Thay vì trung tâm dữ liệu (Data Centre) chỉ là nơi cung cấp đặt các máy chủ riêng, chúng có thể bắt đầu cung cấp máy chủ ảo, dịch vụ, cho phép các mô hình kinh doanh mới được triển khai.

Công nghệ của IBM như vậy là quá nhanh và mạnh, có thể thấy dự án Kittyhawk có thể mô phỏng toàn bộ mạng Internet.

Trong quá khứ, đã có hai cách để tạo ra một siêu máy tính. Thứ nhất, đó là cách tiếp cận mẫu Blue Gene, với cách tiếp cận này tạo ra một máy tính khổng lồ với hàng ngàn (hoặc hàng trăm ngàn) bộ vi xử lý (CPU). Cách tiếp cận khác, giống như Google, là dùng hàng trăm thậm chí hàng ngàn máy tính nhỏ với chi phí thấp và kết nối chúng lại với nhau như một “chùm” (cluster) mà tất cả chúng đều làm việc với nhau như một máy tính lớn.
Về cơ bản, các siêu máy tính có nhiều bộ vi xử lý cắm vào một máy tính, chia sẻ bộ nhớ chung và vào/ra, trong khi cụm được tạo thành từ nhiều máy nhỏ hơn, mỗi trong số đó có chứa một số lượng ít hơn các bộ vi xử lý, bộ nhớ trong và vào/ra.

Và các bài báo của Nick Carr đã làm một công việc tốt là khuấy động khái niệm này một lần nữa, nhưng nó đã trở nên rõ ràng rằng khái niệm “The Cloud” đã có sự phát triển, đây là một khái niệm có nguồn gốc nằm trong lĩnh vực điện toán lưới (grid computing), điện toán bó/cụm (clustering computing).

John Willis (một chuyên gia quản trị hệ thống doanh nghiệp 30 năm của Enterprise System Management/Information Technology) tìm cách ‘làm sáng tỏ’ đám mây và nhận được một số ý kiến thú vị. James Urquhart (một chuyên gia cộng tác viên cho mạng CNET) là một người ủng hộ của điện toán đám mây và nghĩ rằng đó giống thay đổi đột phá, một số người phủ nhận về điện toán đám mây. Ông cũng đã trả lời một số ý kiến chỉ trích luận điểm của mình. Bob Lewis, một trong những người phủ nhận điện toán đám mây đã viết một vài bài viết về chủ đề này để thảo luận về các tranh cãi của Nick Carr.

Để thảo luận về một số vấn đề xung quanh khái niệm điện toán đám mây, cần nghĩ rằng điều quan trọng là đặt nó trong bối cảnh lịch sử. Nhìn vào tiền thân của điện toán đám mây, và những vấn đề gặp phải, điều đó cho chúng ta những điểm tham chiếu để hướng dẫn qua những thách thức cần phải vượt qua trước khi nó được chấp nhận rộng rãi.

Với các máy tính trước kia đã được nhóm với nhau để tạo thành một máy vi tính với hiệu năng lớn hơn. Đây là một kỹ thuật phổ biến cho ngành công nghiệp, và được sử dụng bởi nhiều bộ phận công nghệ thông tin. Kỹ thuật này cho phép bạn thiết lập máy tính để liên lạc với nhau bằng cách sử dụng các giao thức đặc biệt được thiết kế để cân bằng tải tính toán trên máy. Với tư cách của người sử dụng, không cần quan tâm về những CPU chạy chương trình, và các phần mềm quản lý bó đảm bảo rằng CPU vào thời điểm đó là “tốt nhất” được sử dụng để chạy chương trình.

Đầu những năm 1990, Ian Foster và Carl Kesselman, hai tác giả đã đưa ra một khái niệm mới của “The Grid” – điện toán lưới. Tương tự như với mạng lưới điện, nơi người dùng có thể cắm vào lưới điện và sử dụng dịch vụ trả tiền theo số tiêu thụ. Nếu các công ty không có các trạm điện của riêng, mà là truy cập vào một nguồn cung cấp của bên cung cấp điện thứ ba, vậy tại sao có thể không giống nhau khi áp dụng đối với tài nguyên máy tính? Cắm vào một mạng lưới các máy tính và trả tiền cho những gì đã sử dụng.

Tính toán lưới mở rộng các kỹ thuật của cụm, nhiều cụm độc lập hoạt động như một lưới do bản chất của chúng không được nằm trong một cùng một miền.

Một chìa khóa để quản trị điện toán cụm có hiệu quả đó là kỹ thuật mà dữ liệu được nắm giữ, còn được gọi là “cư trú dữ liệu” (data residency). Các máy tính trong điện toán cụm thường được kết nối vật lý tới ổ đĩa chứa dữ liệu, có nghĩa là các CPU có thể nhanh chóng thực hiện các thao tác vào/ra.

Một trong những trở ngại cũng gặp phải trong điện toán lưới chính là nơi dữ liệu cư trú. Do tính chất phân toán của điện toán lưới các nút tính toán có thể nằm bất cứ nơi nào trên thế giới. Khi tất cả các CPU đã sẵn sàng làm việc nhưng dữ liệu cần được xử lý trên CPU thực lai có thể xa hàng ngàn dặm, gây ra sự chậm trễ (latency) giữa các lấy dữ liệu và xử lý. Các CPU cần phải được cung cấp điện năng và làm mát với khối lượng dữ liệu khác nhau tùy thuộc vào nhiệm vụ mà họ đang xử lý. Việc chạy một tiến trình xử lý dữ liệu chuyên sâu so với các nguồn dữ liệu khác nhau có thể tạo ra một nút cổ chai trong việc vào/ra, gây ra chạy không hiệu quả, và ảnh hưởng đến khả năng kinh tế.

Quản lý lưu trữ, bảo mật dữ liệu dự phòng và vận chuyển dữ liệu là vấn đề hóc búa để cần giải quyết để mang lại thành công cho điện toán lưới. Một bộ công cụ, gọi là Globus, được tạo ra để giải quyết những vấn đề này, nhưng cơ sở hạ tầng phần cứng hiện tại vẫn không tiến triển đến một mức độ mà thật sự điện toán lưới hoàn toàn có thể đạt được.
Nhưng điều quan trọng hơn những hạn chế kỹ thuật này, là công việc kinh doanh. Bản chất của điện toán lưới hay điện toán đám mây là doanh nghiệp phải di chuyển các ứng dụng và dữ liệu của nó đến một giải pháp bên thứ ba. Đó mới tạo ra rào cản rất lớn.

Năm 2002, đã có nhiều cuộc hội thoại dài với các chuyên gia lưới điện châu Âu – Mỹ, giữa các nhà cung cấp hàng đầu giải pháp điện toán lưới. Họ mong muốn thúc đẩy cho khái niệm lưới với các tổ chức tài chính lớn, mặc dù các công ty đã có những nguồn tài nguyên điện toán cần thiết để xử lý các giao dịch từ nhiều ngân hàng, nhưng thật khó thay đổi các quan niệm truyền thống và các rủi ro có thể xảy ra với các tổ chức tài chính.

Mỗi tổ chức tài chính nhất thiết cần biết rằng công ty cung cấp điện toán lưới hiểu rõ nghiệp vụ của họ, không chỉ các danh mục đầu tư chạy các ứng dụng và cơ sở hạ tầng trên đó. Điều này đã được quan trọng đối với họ. Họ cần biết rằng hệ thống của họ hỗ trợ bất cứ ai biết chính xác những gì tác động của thay đổi bất kỳ khả năng có thể làm cho các cổ đông của họ.

Ngoài ra còn các vấn đề khác cần phải đặt ra đó là an toàn dữ liệu và bảo mật. Đối với nhiều doanh nghiệp, dữ liệu là nhạy cảm nhất. Trao dữ liệu này sang bên thứ ba đơn giản là thật khó chấp nhận. Các ngân hàng đã rất thích đi thuê các dịch vụ ngoài cho một phần dịch vụ của họ, nhưng lại muốn được kiểm soát của các phần cứng và phần mềm – về cơ bản muốn sử dụng các nguồn lực bên ngoài giống như là một phòng/ban nội bộ hỗ trợ nhân viên.
Động lực giúp điện toán lưới gia nhập sâu hơn vào cung cấp dịch vụ, đó là điện toán đám mây. Điều này mang các khái niệm về điện toán lưới và kết thúc tốt đẹp nó trong một dịch vụ được cung cấp bởi các trung tâm dữ liệu. Các dịch vụ cao cấp nhất của điện toán đám mây của các hệ thống cung cấp dịch vụ là Amazon S3 (Simple Storage Service). Amazon cung cấp các giải pháp phát triển với một dịch vụ web để lưu trữ dữ liệu. Bất kỳ số lượng dữ liệu có thể được đọc, viết hoặc đã bị xóa trên một cơ sở trả cho mỗi lần sử dụng.

Hãng EMC cũng có kế hoạch cung cấp một dịch vụ dữ liệu để cạnh tranh với Amazon. Giải pháp của EMC muốn tạo ra một mạng lưới toàn cầu với mỗi trung tâm dữ liệu có khả năng lưu trữ lớn. Họ có cách tiếp cận rằng không ai có thể đủ khả năng đặt tất cả các dữ liệu ở một nơi, vì vậy dữ liệu như vậy được phân tán trên toàn cầu. Đám mây của họ sẽ theo dõi việc sử dụng dữ liệu, và nó sẽ tự động điều chỉnh dữ liệu để cân bằng tải các yêu cầu và lưu lượng truy cập Internet.