Computerworld.pl
Konferencje
Badania redakcyjne
Tematy
Agile
AI (Artificial Intelligence)
Aplikacje Biznesowe
Bezpieczeństwo
Big Data
Cloud Computing
DataCenter
SDN
Sieci
Smart City
Sprzęt B2B
Praca w IT
Przemysł 4.0
Digital Leaders
Badanie AudIT
Biblioteka IT
TOP200
Strefy tematyczne
Efektywna praca hybrydowa
Sieci w logistyce
Raportowanie ESG - wszystko, co trzeba wiedzieć
Atman 30 lat Internetu komercyjnego
×
Szukaj
Konferencje
Wiadomości
CIO Executive
Podcasty
Badania redakcyjne
Okiem Prezesa
Wywiady
Badanie AudIT
Biblioteka IT
Praca w IT
Tematy
Agile
AI (Artificial Intelligence)
Aplikacje Biznesowe
Bezpieczeństwo
Big Data
Cloud Computing
DataCenter
SDN
Sieci
Smart City
Sprzęt B2B
Praca w IT
Przemysł 4.0
Digital Leaders
Strefy tematyczne
Efektywna praca hybrydowa
Sieci w logistyce
Raportowanie ESG - wszystko, co trzeba wiedzieć
Atman 30 lat Internetu komercyjnego
TOP200
Kiosk
Archiwum
Newslettery
Strona główna
Centrum tematyczne
DataCenter
DataCenter
5 sposobów na zwiększenie wydajności serwerów
Maria Korolov, CIO
Właściwy dobór obciążeń, modernizacja do serwerów obecnej generacji i zarządzanie zużyciem energii mogą pomóc przedsiębiorstwom osiągnąć cele zrównoważonego rozwoju centrów danych.
Jak centra danych wpływają na środowisko naturalne?
Computerworld
Narzędzie o nazwie Lifecycle CO2e TradeOff Tool opracowane przez Schneider Electric pomaga obliczyć całkowity ślad węglowy (zakres 1, 2 i 3) dla wszystkich emisji w całym łańcuchu wartości, w tym emisji pośrednich.
HPE wdraża AI w chmurze
Grzegorz Stech
Firma Hewlett Packard Enterprise wchodzi na rynek chmurowej AI, rozszerzając platformę HPE GreenLake o duże modele językowe, oparte na superkomputerach, dostępne na żądanie dla wielu użytkowników (multi-tenant) za pośrednictwem chmury. Będą mogły z nich korzystać firmy dowolnej wielkości – od startupów po największe organizacje na świecie.
Sztuczna inteligencja wymusza zmiany w infrastrukturze
Grzegorz Stech
Ponad 40% liderów IT wątpi, czy ich infrastruktura cyfrowa jest przygotowana do obsługi technologii opartej na sztucznej inteligencji – wynika z badania Equinix 2023 Global Tech Trends.
Podcast
Nowy podcast Computerworld Tech Trends
Grzegorz Stech
W cyfrowym świecie biznes buduje się na danych. Organizacje, by osiągnąć sukces, muszą dane rozumieć i widzieć te najistotniejsze, by na ich podstawie podejmować trafne decyzje. Jak to zrobić? Jakiej technologii użyć? Zapraszamy do wysłuchania nowego podcastu serii Tech Trends „jak skutecznie wydobyć wartość z danych”.
Kwantowe centrum danych
Computerworld
IBM zbuduje swoje pierwsze europejskie centrum danych kwantowych, w ramach obsługi rozwijającego się ekosystemu.
AWS ogłasza ogólną dostępność Amazon Security Lake
Computerworld
Specjalna usługa pomaga osiągnąć pełniejszą wiedzę o stanie bezpieczeństwa organizacji i szybciej podnosić poziom ochrony aplikacji i danych.
Centra danych: zrównoważony rozwój staje się normą
Wiesław Pawłowicz
Według Gartnera w 2022 roku zaledwie 5% firm wdrażało programy zrównoważonego rozwoju infrastruktury centrów danych, ale w 2027 roku odsetek ten wzrośnie do 75%.
Nvidia zaprezentowała nowy układ scalony Grace Hopper napędzający superkomputer DGX GH200 AI
Anirban Ghoshal
Superkomputer DGX GH200 AI jest przeznaczony do opracowywania i obsługi dużych modeli językowych. Google Cloud, Meta i Microsoft mają już do niego dostęp.
Nvidia zbuduje superkomputer dla Izraela
Anna Ładan
Nvidia ujawniła, że buduje najpotężniejszy superkomputer do sztucznej inteligencji w Izraelu, aby sprostać rosnącemu zapotrzebowaniu klientów na aplikacje AI.
Najpopularniejsze stanowiska pracy w chmurze obliczeniowej
Daniel Olszewski
Chmura obliczeniowa z miesiąca na miesiąc staje się coraz popularniejsza i w wielu branżach wypiera klasyczną infrastrukturę On-Premise. Na jakie stanowiska pracy przy chmurze jest aktualnie zapotrzebowanie?
W Polsce ruszyła pierwsza serwerownia firmy Data4
Janusz Chustecki
Francuska firma oddała do eksploatacji w Jawczycach k. Warszawy swoje pierwsze centrum danych w Polsce. Docelowo na terenie kampusu powstaną 4 takie obiekty o łącznej mocy 60 MW, a całkowity koszt inwestycji wyniesie 1 mld złotych.
Intel ujawnia specyfikację superkomputera Aurora
Daniel Olszewski
Komputer dostarczony do Agrone National Lab zaoferuje moc obliczeniową na poziomie ponad dwóch exaFLOPSów.
Chiny zakazują chipów Micron w swojej infrastrukturze krytycznej
Daniel Olszewski
Rząd Chin wydał zakaz stosowania układów produkowanych przez firmę Micron w infrastrukturze krytycznej ze względu na zagrożenie dla bezpieczeństwa narodowego.
Zasilanie infrastruktury IT - oto najpopularniejsze zagrożenia
Daniel Olszewski
Zasilanie jest kluczowe do działania infrastruktury IT. Niestety czasami zdarzają się przestoje w dostawach prądu lub nagłe zmiany parametrów. Jakie zakłócenia zasilania są szczególnie niebezpieczne? Jak się przed nimi chronić.
Data mesh, data fabric oraz data cloud – co oznaczają te pojęcia?
Isaac Sacolick
Wzmocnienie organizacji opartych na danych wymaga odpowiednich narzędzi i praktyk - oraz szefa, który to rozumie. Oto jak wyjaśnić kluczowe pojęcia dotyczące danych swojemu CEO.
Zewnętrzny dysk, chmura czy dysk sieciowy? Jak zadbać o backup
Daniel Olszewski
Jedno jest pewne - backup to kluczowy element, ale w jaki sposób optymalnie zapewnić jego wykonywanie? Aktualnie możliwości jest bardzo dużo. Która z nich jest najlepsza.
Jeden ze stu najmocniejszych superkomputerów na świecie działa Politechnice Gdańskiej
Anna Ładan
Superkomputer Kraken należy do Centrum Kompetencji STOS (Smart and Transdisciplinary knOwledge Services) Politechniki Gdańskiej. Powstał dzięki 90 mln zł z Funduszy Europejskich. Będzie go można zobaczyć 11 i 12 maja z okazji Dni Otwartych Funduszy Europejskich.
Poprzednia
strona
1
2
3
4
5
...
146
Następna
strona
Redakcja poleca
Wielka inwestycja Atmana w przetwarzanie danych
Computerworld
Akcje Intel spadają - winna rosnąca konkurencja w AI
Daniel Olszewski
Brak miejsca na dysku? Najlepsze metody na zwiększenie pamięci
Daniel Olszewski
Najszybszy Helios w Cyfronecie
Computerworld
Biblioteka IT
Firmowe dane z jeszcze lepszym silnikiem przetwarzania
Jak technologie IBM Power i Oracle mogą przyspieszyć firmowy biznes? Firmowe aplikacje, pracujące w oparciu o bazy danych Oracle, mogą działać jeszcze wydajniej i być tańsze w utrzymaniu bez utraty jakości i ciągłości przetwarzania danych. Jest to możliwe dzięki zaawansowanym technologicznie i wydajnym platformom serwerowym IBM Power, które mogą przenieść firmowy computing na znacznie wyższy poziom. Przeczytaj i przekonaj się, w jaki sposób partnerstwo technologiczne IBM i Oracle może zmienić zasady gry w scyfryzowanym świecie.
Jak HPE ProLiant może pomóc przekształcić zarządzanie danymi i zwiększyć wyniki biznesowe dzięki analizie danych
Ilość danych rośnie szybciej niż większość organizacji jest w stanie sobie z tym poradzić. Oczekuje się, że w 2025 r. wzrost ilości danych wyniesie ponad 200 zettabajtów. 57% niedawno ankietowanych liderów biznesowych twierdzi, że ich firmy nie są w stanie nadążyć za tą ilością danych i zdają sobie sprawę, że nie są gotowi na przyszłość. W tych danych kryją się przełomowe spostrzeżenia dotyczące innowacji, usług i środków bezpieczeństwa, ale można je zrealizować tylko wtedy, gdy dane zostaną połączone i oswojone w celu analizy. Oznacza to połączenie milionów wątków danych w jednolitą strukturę, zautomatyzowaną i dostępną od brzegu sieci do chmury. W jaki sposób modernizacja danych może sprostać największym wyzwaniom?
Mistrzowie migracji danych
Czy można skrócić czas migracji między niekompatybilnymi systemami z 70 do 14 godzin? Inżynierowie firmy Comarch opracowali i przeprowadzili projekt, w którym to się udało. Klient z branży ubezpieczeniowej musiał mieć dodatkowo zapewnione najwyższe standardy bezpieczeństwa. Operacja przeprowadzona w sposób tradycyjny - wykonania kopii zapasowej na taśmach magnetycznych w ośrodku klienta i transport taśm do ośrodka Comarch, gdzie miałaby nastąpić operacja odtworzenia, znacznie przekroczyłyby czas niedostępności. Konieczne było więc nieszablonowe podejście i bardzo dobrze zaplanowany proces, wsparcie partnerów biznesowych i przede wszystkim ogromne doświadczenie ekspertów. Zapraszamy do lektury niezwykle inspirującego case study, w którym zostały przedstawione krok po kroku szczegóły migracji opartej na macierzach dyskowych IBM FlashSystem i SVC.
Zapewnienie ciągłości działania systemów informatycznych
Cyfryzacja kolejnych procesów biznesowych wykładniczo zwiększa złożoność oraz zależność systemów informatycznych. W efekcie funkcjonowanie współczesnych organizacji w niespotykanym wcześniej stopniu zależy od pełnej dostępności środowisk IT. Wydarzenia ostatnich miesięcy sprawiły, że prawdopodobieństwo wystąpienia zdarzeń, które istotnie mogą wpłynąć na zakłócenie procesów biznesowych przedsiębiorstwa, znacząco wzrosło. Pandemia COVID-19 i wojna w Ukrainie wymusiła na firmach rewizję planów zachowania ciągłości działania pod kątem zdarzeń, które, w głębokim przekonaniu, nie miały prawa się zdarzyć. Dzisiaj w analizie ryzyka, obok awarii infrastruktury czy katastrof naturalnych, w większym niż kiedykolwiek wcześniej stopniu należy przyjrzeć się ryzykom wynikającym z niespokojnej sytuacji geopolitycznej (ataki cybernetyczne, wojna, kryzys energetyczny). Konsekwencje zaburzenia ciągłości działania mogą być poważne – od niezrealizowanej sprzedaży po brak możliwości realizacji większości operacji przedsiębiorstwa, a w efekcie narażenie firmy na konsekwencje prawne i utratę zaufania klientów. Badanie „Computerworld” miało na celu znalezienie odpowiedzi na pytania: W jaki sposób rodzime przedsiębiorstwa podchodzą do kwestii zapewnienia sprawności procesów? Jaki wpływ na biznes ma utrata ciągłości działania systemów IT? Czy firmy mają gotowe plany zachowania ciągłości i przywracania procesów po awarii? W jakim stopniu zapasowe centra danych, nowoczesne techniki backupu i chmura obliczeniowa mogą pomóc w zwiększeniu dostępności systemów i danych?
Reklama zamknie się za 15 sekund. Przejdź do serwisu »