Katedra Wytrzymałości Materiałów i Metod Komputerowych Mechaniki
  
Wydział Mechaniczny Technologiczny
   Politechnika Śląska

 Strona głównaWyniki i ocenyPrzedmiotyPliki do pobraniaKontaktAdministrator
Icon Struktura Katedry
Icon Pracownicy
Icon Oferta współpracy
Icon Z życia Katedry
Icon Nasi absolwenci
Icon Wirtualny spacer
Icon Na wesoło
Dydaktyka
Icon Specjalności
Icon Przedmioty
Icon Wyniki i oceny
Icon Pliki do pobrania
Icon Prace dyplomowe
Icon Studenckie Koło Metod Komp. Mechaniki
Icon Studenckie Koło Mechaniki Eksperymentalnej "STRESS"
Icon Podręczniki i skrypty
Icon Praktyki studenckie
Działalność naukowa
Icon Profil naukowy
Icon Przykłady badań eksperymentalnych i analiz numerycznych
Icon Projekty badawcze
Icon Konferencje naukowe
Icon Rozprawy doktorskie
Icon Wybrane zagadnienia
Icon
 

 

Działalność naukowa - wybrane zagadnienia



Modelowanie oddziaływania pola elektromagnetycznego na tkankę biologiczną

Znajomość mechanizmu oddziaływania podwyższonych temperatur na organizmy żywe można wykorzystać w celach terapeutycznych. Powszechnie wiadomo, że temperatura powyżej 42°C powoduje nieodwracalne uszkodzenie żywych komórek, w związku z tym miejscowe, kontrolowane podgrzanie zmienionej chorobowo tkanki może spowodować jej destrukcję. Jedną z rozwijanych w ostatnich latach metod niszczenia komórek nowotworowych (np. w przypadku raka skóry) jest podwyższenie temperatury za pomocą pola elektromagnetycznego wywołanego np. zastosowaniem dwóch elektrod przyłożonych do powierzchni skóry. Efekt oddziaływania pola elektromagnetycznego można zwiększyć poprzez wprowadzenie do obszaru guza nanocząsteczek superparamagnetycznych, które ułatwiają sterowanie procesem nagrzewania w taki sposób, że zapewnia się destrukcję podobszaru nowotworowego i nie niszczy otaczającej go zdrowej tkanki.

Na rysunku pokazano schemat układu hipertermii powierzchniowej. Model matematyczny procesu składa się z dwóch części. Pierwsza jest związana z polem elektrycznym opisanym równania-mi Laplace'a uzupełnionymi odpowiednimi warunkami brzego-wymi. Druga dotyczy pola temperatury określonego układem równań Pennesa, w których występują dodatkowe składniki źródłowe wynikające z oddziaływania pola elektromagnetycznego na tkankę.

Sterowanie procesem nagrzewania guza w celu jego destrukcji jest znacznie łatwiejsze, jeśli do podobszaru nowotworowego wprowadzi się nanocząsteczki superparamagnetyczne (SPM). Badania eksperymentalne polegające na wprowadzaniu materiałów magnetycznych do próbek tkanek poddawanych działaniu pola elektromagnetycznego rozpoczęto już w latach pięćdziesiątych dwudziestego wieku. Od tego czasu przeprowadzono wiele eksperymentów, głównie na zwierzętach, które potwierdzają skuteczność i efektywność tego typu terapii.

 Z punktu widzenia modelowania procesu nagrzewania guza z wprowadzonymi nanocząsteczkami, obszar ten traktowany jest jako kompozyt.


Rozkład temperatury w tkance (bez pola elektromagnetycznego)

Na rysunku pokazano rozkład temperatury w tkance, na którą nie oddziaływuje pole elektromagnetyczne. Jak należało się spodziewać, obecność guza powoduje niejednorodność tego rozkładu, a maksymalna temperatura występuje w podobszarze guza.

 
 

Rozkład temperatury w tkance (napięcie na elektrodach U = 15[V]

Na rysunku pokazano rozkład temperatury w tkance poddanej działaniu pola elektrycznego. W tym przypadku nastąpiło podwyższenie temperatury w całym obszarze, ale maksymalna temperatura występuje poza obszarem guza. Otrzymany wynik  potwierdza fakt, że kontrolowane oddziaływanie pola elektromagnetycznego na tkankę skórną w celu zniszczenia guza jest trudne, ponieważ wysokie temperatury mogą również uszkodzić stosunkowo dużą objętość zdrowej tkanki otaczającej nowotwór. 


 

Rozkład temperatury (guz z nanocząsteczkami, U = 10[V])

Sterowanie procesem nagrzewania tkanki za pomocą pola elektro-magnetycznego jest łatwiejsze, jeśli do podobszaru guza wprowadzi się nanocząsteczki superparamagnetyczne. Na rysunku pokazano rozkład temperatury dla takiego przypadku. Założono, że liczba nanocząsteczek Fe3O4 wynosi n = 5e13, a ich promienie są równe r = 10e−8 [m]. Jak widać, maksymalna temperatura występuje w podobszarze guza, a w zdrowej tkance temperatury nie przekraczają 42°C, czyli nie spowodują jej uszkodzenia.

Należy zwrócić uwagę na fakt, że zastosowanie pola elektromagnetycznego w celu kontrolowanego nagrzewania tkanki zaatakowanej nowotworem może być skuteczne pod warunkiem, że znane są wielkość oraz lokalizacja guza, innymi słowy tego typu zabiegi terapeutyczne muszą być poprzedzone bardzo dokładną diagnozą stanu nowotworowego. Z kolei metody symulacji komputerowej pozwalają dobrać takie parametry pola elektromagnetycznego, które zapewnią całkowitą destrukcję guza i minimalne uszkodzenie otaczającej go zdrowej tkanki.

Literatura:

  • Y.G. Lv, Z.S. Deng, J. Liu, 3D numerical study on the induced heating effects of embedded micro/nanoparticles on human body subject to external medical electromagnetic field, IEEE Transactions on Nanobioscience, 4, 4, 2005, 284-294.

  • E. Majchrzak, G. Dziatkiewicz, M. Paruch, The modelling of heating a tissue subjected to external electromagnetic field, Acta of Bioengineering and Biomechanics, Vol. 10, No 2, 2008, pp. 29-37.

  • E. Majchrzak, M. Paruch, Numerical modelling of tissue heating by means of the electromagnetic field, Scientific Research of the Institute of Mathematics and Computer Science, Czestochowa University of Technology, 1(9), pp. 89-97, 2010.
     



Procedura wspomagania diagnozowania osteoporozy w kości miednicznej człowieka

Choroby układu kostnego należą do częstych dolegliwości dotykających ludzi. Jedną z nich jest osteoporoza. Jest to choroba metaboliczna kości zmiany w strukturze tkanek kostnych: przerzedzenie komórek kostnych, co prowadzi do zmniejszanie gęstości kości. Konsekwencją tych zmian jest osłabienie kości i zwiększenie jej podatności na złamania. Z biegiem czasu te zmiany stają się na tyle poważne, że dochodzi do zaburzenia funkcjonowania kości, a nawet całego organizmu – kość staje się osłabiona do tego stopnia, że nie jest w stanie przenosić obciążeń wynikających jedynie z fizjologii organizmu. W tej sytuacji może dojść do przypadkowych złamań, np. szyjki kości udowej. Poważnym problemem jest wykrycie osteoporozy w możliwie wczesnym stadium zaawansowania. Nie jest to łatwe zadanie, gdyż choroba przebiega bezobjawowo. Pierwszymi zauważalnymi oznakami choroby są bóle w okolicach kręgosłupa i stawu biodrowego. Niestety jest to zaawansowana faza choroby, która bezpośrednio poprzedza złamania. W celu wykrycia osteoporozy wykonuje się wiele badań profilaktycznych, jedną z częściej stosowanych jest Ilościowa Tomografia Komputerowa (QCT). Jest to metoda diagnostyczna wykorzystującą zjawisko osłabienia wiązki promieniowania rentgenowskiego w trakcie przechodzenia przez prześwietlany obiekt. To badanie różni się od standardowej tomografii obecnością fantomu kalibracyjnego, który jest prześwietlany równocześnie z badanym pacjentem. Po przeprowadzeniu badań tomograficznych uzyskuje się obrazy radiologiczne, które należy przetworzyć, aby uzyskać informacje o badanych obiektach układu kostnego. Ten proces polega na kolejnych przekształceniach, których końcowym efektem jest uzyskanie danych odnoście rozkładu parametrów materiałowych w prześwietlanej kości. Następnie te własności zostają przypisane do modelu numerycznego. W rezultacie uzyskuje się model MES kości miednicznej, w którym w każdym elementowi skończonemu przyporządkowano osobny materiał. Dysponując modelem numerycznym przeprowadzono obliczenia wytrzymałościowe. W oparciu o obrazy tomograficzne, modele numeryczne oraz wyniki analiz wytrzymałościowych przystąpiono do opracowania procedury wspomagająca wykrywanie zmian osteoporotycznych w kości miednicznej człowieka. Punktem początkowym są badania tomograficzne. Jeżeli będą dostępne wyniki badań TK wykonane dla pacjentów z różnym zaawansowaniem osteoporozy (w każdym przypadku uzyska się zestaw zdjęć przedstawiających badaną kość) to będzie można stworzyć swoistą bazę danych. Elementami tej bazy będą zestawy zdjęć tomograficznych (od poszczególnych pacjentów), a także pliki zawierające dane po przetworzeniu zdjęć (macierze ze skalą szarości, gęstością pozorną, modułami Younga), plik wejściowy do programu obliczeniowego oraz plik wynikowy. Poszczególne wielkości pogrupowane są w katalogach. W oparciu o porównanie wielkości charakterystycznych dla danej kości z odpowiednimi wielkościami dla kości zdrowej można oszacować występowaniu zmian chorobowych w badanym układzie. Może się to odbywać poprzez porównanie: - gęstości kości (gęstości pozornej) – ubytek masy kostnej świadczy wprost o fazie osteoporozy, - wartości modułów Younga, - wielkości uzyskanych z obliczeń wytrzymałościowych charakteryzujących stan wytężenia kości (wartości naprężeń i odkształceń). Ogólną zasadę działania programu można przedstawić następująco: po wprowadzeniu do bazy wyników z przeprowadzonych badań profilaktycznych następuje przeszukiwanie bazy w celu znalezienia najbardziej podobnego zdjęcia. W następnym kroku analizowanym danym zostaje przyporządkowany model numeryczny i odpowiadające mu wskaźniki wytrzymałościowe – zostanie wyświetlona informacja o parametrach charakteryzujących stan wytężenia oraz o potencjalnym zagrożeniu osteoporozą. Jeśli nie będzie można postawić jednoznacznej diagnozy będzie możliwość powrotu do etapu przeszukiwania i przeglądanie większej ilości danych. Ostatnim etapem jest diagnoza na podstawie oceny aktualnego stanu pacjenta poprzez porównanie danych i analizę wyników z bazy.

Literatura:

  • Gregory J. S., Aspden R. M.: Femoral geometry as a risk factor for osteoporotic hip fracture in men and women, Medical Engineering &Physics, vol. 30, pp. 1275-1286, 2008.

  • John A., Wysota P.: Data base to aid of diagnosis of osteoporotical changes in human pelvic bone. Journal of Vibroengineering, Vol. 11, Issue 3, pp. 517-523.


Optymalizacja układów fizycznych przy użyciu sztucznych systemów immunologicznych

Sztuczne systemy immunologiczne opierają swoje działanie na biologicznych systemach immunologicznych. System immunologiczny jest złożoną, rozproszoną grupą specjalizowanych komórek oraz organów. Najważniejszym zadaniem systemu immunologicznego jest rozpoznanie oraz zniszczenie patogenów – grzybów, wirusów, bakterii oraz wadliwie funkcjonujących komórek organizmu.

Limfocyty odgrywają bardzo ważną rolę w systemie immunologicznym. Limfocyty dzielą się na kilka typów komórek. Dwie główne grupy to komórki typu B oraz T, każde z nich zawierają kilka podgrup. Limfocyty typu B zawierają na swojej powierzchni przeciwciała (wszystkie przeciwciała na pojedynczej komórce typu B są takie same), które pozwalają na neutralizację patogenów, a zarazem używane są do rozpoznawania patogenów. Występuje duża różnorodność pomiędzy przeciwciałami poszczególnych komórek typu B, pozwala to na rozpoznanie i neutralizację wielu różnych patogenów. Komórki typu B są produkowane w szpiku kostnym kości długich. Komórki typu B podlegają hipermutacji, co zapewnia dużą różnorodność przeciwciał. Komórki typu T dojrzewają w grasicy, w wyniku selekcji do układu limfatycznego oraz krwionośnego przedostają się tylko komórki T, które rozpoznają wyłacznie obce komórki. System immunologiczny wyposażony jest również w inne komórki, np. makrofagi ze zdolnością prezentacji białek MHC (major histocompatibility complex – główny układ zgodności tkankowej). Rozpoznanie patogenu odbywa się zazwyczaj w kilku krokach. Najpierw komórka typu B lub inna ze zdolnością prezentacji białek MHC, wysyła sygnał chemiczny dla komórki typu T. Komórka typu T decyduje czy dany antygen jest patogenem. Limfocyt typu T daje sygnał komórce typu B aby zrzuciła do krwioobiegu lub układu limfatycznego przeciwciała. Część aktywowanych komórek typu B zostaje powielona w węzłach chłonnych (następuje proliferacja tych komórek). Niektóre z komórek typu B zamieniają się w komórki pamięciowe. W przypadku ponownego pojawienia się patogenu w organizmie, wykrycie i jego neutralizacja następuje szybciej dzięki komórkom pamięciowym. Komórki pamięciowe powstałe podczas pierwszej odpowiedzi układu immunologicznego są namnażane i ich klony wprowadzają przeciwciała do organizmu. Inne komórki, takie jak makrofagi niszczą patogeny. Liczba limfocytów w organizmie wzrasta znacznie podczas obecności patogenów, jednak po ataku część z limfocytów jest usuwana z organizmu.

Sztuczne systemy immunologiczne wykorzystują kilka elementów znanych w systemach biologicznych. Zazwyczaj używa się mutacji (hipermutacji) komórek typu B, proliferacji, komórek pamięciowych oraz rozpoznawania patogenów z użyciem limfocytów B i T. Sztuczne system immunologiczne używane są w optymalizacji, klasyfikacji, jak również w rozpoznawaniu wirusów komputerowych. Algorytm selekcji klonalnej Clonalg opracowany przez von Zubena oraz de Castro używa pewnych mechanizmów zaczerpniętych z biologicznych systemów immunologicznych w problemach optymalizacji. Nieznane globalne optimum jest patogenem poszukiwanym przez sztuczny system immunologiczny. Komórki pamięciowe posiadają zmienne projektowe. Komórki te są namnażane podczas działania algorytmu. Komórki typu B powstałe podczas proliferacji komórek pamięciowych poddawane są hipermutacji. W kolejnym kroku określana jest wartość funkcji celu dla poszczególnych komórek, najlepsze z nich zastępują komórki pamięciowe. W wersji Wierzchonia algorytmu Clonalg zastosowano dodatkowo mechanizm tłoku w celu zwiększenia różnorodności komórek. Na rysunku powyżej przedstawiono schemat blokowy sztucznego systemu immunologicznego. W pierwszym kroku komórki pamięciowe generowane są w sposób losowy. Po proliferacji i mutacji tworzone są komórki typu B. Liczba klonów poszczególnych komórek pamięciowych jest zależna od wartości funkcji celu dla danej komórki pamięciowej. Następnie obliczana jest wartość funkcji celu dla poszczególnych komórek typu B. Podczas procesu selekcji, część komórek typu B zastępuje komórki pamięciowe. Selekcja jest przeprowadzana na podstawie odległości komórek pamięciowych oraz limfocytów typu B (obliczanej z użyciem wartości zmiennych projektowych komórek). W kolejnym kroku wykorzystywany jest mechanizm tłoku, w wyniku jego działania podobne komórki pamięciowe są eliminowane. Cały proces jest powtarzany iteracyjnie, aż do spełnienia warunku zatrzymania. Warunek zatrzymana może być sformułowany jako maksymalna liczba iteracji, oczekiwana wartość funkcji celu, bądź też jako minimalna oczekiwana poprawa funkcji celu na przestrzeni kilku iteracji. Przedstawiony powyżej algorytm jest oparty na algorytmie Wierzchonia, przy czym zmieniono operator mutacji. W pracy Wierzchonia zastosowana była mutacja nierównomierna, w poniższym podejściu używana jest mutacja z rozkładem Gaussa.

Przykład optymalizacji



Literatura:

  • A. Poteralski, M. Szczepanik, T. Burczyński Advanced optimal design using artificial immune system 8th. World Congress on Computational Mechanics (WCCM8) 5th. European Congress on Computational Methods in Applied Sciences and Engineering (ECCOMAS 2008) 2008, Venice, Italy

  • Wierzchoń S.T., Sztuczne systemy immunologiczne, teoria i zastosowania, EXIT, 2001.



Oddziaływania termiczne lasera na tkankę biologiczną

Techniki laserowe znajdują coraz więcej zastosowań w medycynie, gdzie, jak pokazuje praktyka, mogą być efektywnym narzędziem do niszczenia tkanek, lub też wywoływać m. in. lokalne podwyższenie temperatury tkanki. Można tu wymienić takie zabiegi medyczne jak fotokoagulacja siatkówki dotkniętej retinopatią cukrzycową, hiperplazja prostaty, usuwanie narośli w ustach i przegrodach nosa.

Z drugiej strony, w związku z rosnącym wykorzystaniem laserów w rozmaitych urządzeniach technicznych, dochodzi do incydentów związanych z ich oddziaływaniami niekontrolowanymi na tkanki biologiczne. Przykładem mogą być tu nagłośnione w mediach przypadki oślepiania pilotów samolotów promieniem lasera. Wypadki takie mają miejsce coraz częściej także w Polsce (incydenty w listopadzie i grudniu 2009 we Wrocławiu oraz Katowicach w listopadzie 2010), a w niektórych krajach np. w Wielkiej Brytanii są prawdziwą plagą, przy czym często wykorzystanym urządzeniem okazuje się być zwykły wskaźnik laserowy, wykorzystywany w szkolnictwie.

Oddziaływanie lasera na tkankę często, również w przypadkach działania kontrolowanego, powoduje w niej nieodwracalne zmiany wywołane przez lokalny wzrost temperatury. Przy wielu zabiegach z użyciem lasera powinny być wzięte pod uwagę różnice pomiędzy wartościami parametrów tkanki naturalnej, czyli nie poddanej działaniu lasera, a tkanki zniszczonej przez laser. Pozwala to na lepszy dobór parametrów lasera takich, jak wartość mocy, średnica plamki czy też długość impulsu, co z kolei minimalizuje zniszczenia w obszarach tkanek, nie będących celem zabiegu.

Wiązka laserowa padająca na tkankę biologiczną ulega odbiciu od niej, rozproszeniu i pochłanianiu. Zjawiska te zachodzą w zależności od wielu czynników takich jak rodzaj tkanki, stan jej powierzchni czy też długość fali promieniowania laserowego. Ta sama tkanka, przy różnych długościach fali promieniowania może zachowywać się raz jako ośrodek czysto absorpcyjny, innym razem jako ośrodek rozpraszający. Powoduje to brak jednolitego opisu matematycznego zjawisk termicznych w tkance pod wpływem lasera: ośrodki absorpcyjne opisywane są przeważnie przez wykorzystanie prawa Beer’a – Lamberta, natomiast ośrodki rozpraszające wymagają rozpatrzenia różniczkowego równania transportu radiacyjnego.




Zabieg fotokoagulacji siatkówki dotkniętej retinopatią cukrzycową


Zestaw laserowy do usuwania zmian skórnych

Literatura:

  • Jasiński M., Numerical Evaluation of Changes in Retinal Perfusion Rate During Laser Irradiation, 4th International Congress on Computational Bioengineering including 1st European Symposium on Biomedical Integrative Research, Book of Abstract, Bertinoro, Italy 2009.  
  • Piasecka-Belkhayat A., Jasiński M., Modelling of UV Laser Irradiation of Anterior Part of Human Eye with Interval Optic Parameters, Evolutionaty and Deterministic Methods for Design, Optimization and Control with Applications to Industrial and Societal Problems, Eurogen, Cracow, Poland, 2009  
  • Jasiński M., Numerical Modelling of Tissue Coagulation During Laser Irradiation Controlled by Surface Temperature, Scientific Research of the Institute of Mathematics and Computer Science, Czestochowa University of Technology, Vol. 9, 2010

Kinematyka i dynamika układów wieloczłonowych

Zanim nastąpiło rozwinięcie środowiska wspomaganego komputerowo, wykorzystanie wirtualnego modelu (który stanowił uproszczenie modelu rzeczywistego), nie było tak popularne jak dotychczas. Wraz ze wzrostem rozwoju technik obliczeniowych oraz szybkości komputerów, obserwuje się znaczny postęp w modelowaniu matematycznym układów rzeczywistych. W dzisiejszych czasach, dostęp do coraz to lepszych programów komputerowych, pozwala na budowanie coraz to lepszych modeli, które coraz częściej zbliżone są do modelu odzwierciedlającego cechy człowieka. Ręka, dzięki bardzo dużej ruchomości i łatwości przystosowywania się do różnorodnych kształtów przedmiotów, które musi chwytać, spełnia bardzo ważną rolę w prawidłowym funkcjonowaniu człowieka. Upośledzenie nawet niewielkiej części jej funkcji, powoduje zmniejszenie zdolności do pracy w dużo większym stopniu niż upośledzenie funkcji innych narządów ruchu. Precyzyjna budowa ręki jest często przyczyną dotkliwych patologii ponieważ uszkodzenie nawet jednego elementu palca prowadzi do poważnych dysfunkcji i żmudnej rehabilitacji. alt="" src="bn-am2.jpg" width="250" height="219" style="float: left">Modelowanie jest sztuką przedstawienia obiektu rzeczywistego w postaci modelu matematycznego za pomocą wzorów i uproszczeń. Modelowanie matematyczne opiera się na rozwiązaniu analizy kinematycznej i dynamicznej. Analiza kinematyczna polega na wyznaczaniu pozycji i orientacji wszystkich elementów badanego modelu. Otrzymane dane wejściowe służą do wyznaczenia trajektorii ruchu, która jest zgodna z trajektorią ruchu obiektu rzeczywistego.

Analiza kinematyczna określa zakres ruchu badanego obiektu i wyznacza jego podstawowe parametry kinematyczne: pozycję, prędkości i przyspieszenia względem wybranego układu odniesienia. Pozwala również na wyznaczenie trajektorii ruchu punktów, zakresu ruchów oraz maksymalnych kątów w jakich badane człony się przemieszczają. Analiza układu ruchu człowieka odbywa się przez zastosowanie metody modelowania i symulacji komputerowej. Metoda ta polega na sformułowaniu modelu matematycznego badanego układu biomechanicznego na podstawie przeanalizowanego wcześniej wybranego modelu fizycznego, a następnie na rozwiązaniu układu równań, który tworzy ten model i przedstawieniu wyników w postaci wykresów lub animacji. Przez model rozumiemy uproszczoną reprezentację rzeczywistości, który jest pozbawiony wielu szczegółów i cech nieistotnych z punktu widzenia celów modelowania. Rozwiązując proste zadanie dynamiki, dynamiczne właściwości modelu biomechanicznego można określić jako zmiany jego położenia w czasie, w zależności od sił i momentów napędowych. Zależności te opisuje się za pomocą układu równań różniczkowych ruchu. Równania ruchu dla łańcucha dynamicznego otwartego zostały przedstawione w oparciu o równania Newtona-Eulera oraz zasady wariacyjne mechaniki analitycznej. W podejściu tym równania dla całego łańcucha uzyskuje się poprzez sukcesywne sumowanie prac przygotowanych sił uogólnionych i sił bezwładności dla pojedynczych członów oraz sił reakcji działających na ciało.

W związku z tym, że na rynku jest niewiele urządzeń służących do diagnostyki i rehabilitacji ręki, stąd bardzo ważnym i ciągle aktualnym zagadnieniem jest potrzeba tworzenia nowych rozwiązań, które ją usprawnią, a jednocześnie zapewnią niski koszt badania i rehabilitacji. Dodatkowo takie urządzenie powinno być prostej konstrukcji, a instrukcja obsługi powinna być oczywista dla użytkowników. Projekt urządzenia do rehabilitacji palców ręki oparty jest na danych biomechanicznych obliczonych z analizy kinematycznej i dynamicznej ręki.

Literatura:

  •  John A., Musiolik A., The mathematical model for a project of a hand rehabilitation device, Multibody dynamics 2009, ECCOMAS Thematic Conference, Warszawa, 2009
  •  John A., Musiolik A.,  Multibody Model of the Human Hand for a Hand Rehabilitation Device, Computer Method in Mechanics, Zielona Góra, 2009.


Analiza rozmyta i interwałowa

W otaczającym nas świecie spotykamy wiele zjawisk, które są opisane w sposób nieprecyzyjny. Posługujemy się terminami „niski człowiek”, „duża prędkość”, „prawie 8”, „pomiędzy 2 i 3”, które trudno w sposób jednoznaczny zinterpretować. Czy duża prędkość samochodu to 80 km/h czy też 100 km/h, czy prawie 8 to liczba 7.8 czy też 8.2? Są to wielkości niedokładne, możemy powiedzieć  „rozmyte”. Taka nieprecyzyjność występuje również w naukach technicznych, gdzie często posługujemy się  danymi niedokładnie określonymi, wyznaczonymi, na przykład, za pomocą eksperymentu. Dlatego wydaje się rzeczą naturalną, aby do modelowania wielu zjawisk, na przykład przepływu ciepła, stosować arytmetykę rozmytą bądź przedziałową. Zbiór rozmyty jest obiektem matematycznym, który definiuje się poprzez funkcję charakterystyczną przybierającą wartości od 0 do 1. Do opisu niedokładnie zdefiniowanych wielkości możemy zastosować również liczby przedziałowe, które uważa się za „prekursorów” liczb rozmytych. Dotyczy to takich przypadków, gdy dokładnie znamy dolną i górną granicę przedziału, do którego zawsze należy dana wartość liczbowa. Na przykład wiemy, że mieści się ona „pomiędzy 2 i 3”. Funkcja charakterystyczna może tu przyjmować tylko dwie wartości: 0 lub 1, podobnie jak w przypadku zbiorów dokładnych. Iloczyn dwuwymiarowych zbiorów rozmytych Zastosowanie liczb rozmytych bądź przedziałowych w metodach numerycznych pozwala na uzyskanie rozwiązania w postaci rozmytej lub interwałowej.  Wykorzystanie zarówno teorii zbiorów rozmytych, jak i liczb przedziałowych pozwala na bardziej dokładne i precyzyjne modelowanie wielu zjawisk zachodzących w otaczającym nas świecie.

Literatura:

  • A. Piasecka Belkhayat, Interval boundary element method for 2D transient diffusion problem, Engineering Analysis with Boundary Elements, Volume 32, Issue 5, Elsevier, 2008, 424-430. ·     
  • A. Piasecka Belkhayat, Interval boundary element method for 2D transient diffusion problem using the directed interval arithmetic, Engineering Analysis with Boundary Elements, Elsevier, w druku.


Zastosowanie metod analizy wrażliwości w przepływie biociepła 

Klasyczne, bezpośrednie zadanie dotyczące przepływu ciepła w tkance biologicznej opisane jest równaniem Pennesa oraz warunkami jednoznaczności (geometrycznymi, fizycznymi, brzegowymi, a w przypadku zadań nieustalonych również warunkami początkowymi). Równanie Pennesa (lub jego odmiany) jest równaniem Poissona lub Fouriera z dodatkowymi składnikami źródłowymi związanymi z perfuzją krwi w tkance oraz przemianami metabolicznymi. Jeżeli rozpatruje się proces zamrażania tkanki, to trzecim składnikiem źródłowym jest wyrażenie „sterujące” wydzielaniem się ciepła przemiany fazowej. W wielu przypadkach tkankę biologiczną traktuje się jako obszar niejednorodny, np. w tkance wyróżnia się podobszary naskórka, skóry właściwej i obszaru podskórnego, przy czym na granicach podobszarów zakłada się warunki kontaktu idealnego.

Analiza wrażliwości wykorzystywana w zagadnieniach przepływu biociepła pozwala ocenić wpływ parametrów fizycznych i geometrycznych, a również warunków brzegowych na rozkłady temperatury
w rozważanym obszarze. Z praktycznego punktu widzenia analiza taka jest niezwykle przydatna, ponieważ parametry tkanek są cechami indywidualnymi zależnymi od wieku, płci, a nawet wykonywanego zawodu.
Do ciekawszych prac związanych z tą tematyką należą następujące badania:

  • analiza wrażliwości kształtu wielowarstwowego obszaru tkanki skórnej oraz całek determinujących stopień jej oparzenia spowodowanego oddziaływaniem silnych, termicznych źródeł zewnętrznych
  • analiza wrażliwości kinetyki procesu zamrażania tkanki ze względu na zmiany warunków brzegowych i geometrycznych, a w szczególności temperatury końcówki kriosondy i jej wymiarów

Zadania analizy wrażliwości formułowano stosując ujęcie bezpośrednie, natomiast do obliczeń numerycznych wykorzystano metodę elementów brzegowych.

Literatura:

  • Majchrzak E., Jasiński M., Kałuża G., Sensitivity analysis of burn integrals with respect to the geometrical parameters of skin, 15th International Conference on Computer Methods in Mechanics CMM-2003, Gliwice/Wisła, June 3-6, 2003, Short Papers, ISBN-83-914632-5-7, 239-240.
  • Mochnacki B., Kałuża G., Modelling of biological tissue freezing process with regard to the shape sensitivity analysis, II International Conference on Computational Bioengineering, Lisbon, Portugal, September 14-16, 2005, Vol.2, 781-792.
  • Kałuża G., Zastosowanie metod analizy wrażliwości w przepływie biociepła, Rozprawa doktorska, Politechnika Śląska, Wydział Mechaniczny Technologiczny. Promotor: Prof. dr hab. inż. Ewa Majchrzak, Gliwice

Zjawiska termofizyczne w skali mikro i nano 

Zjawisko miniaturyzacji można dostrzec w wielu dziedzinach naszego życia. Produkcja coraz mniejszych urządzeń w największym stopniu jest zauważalna w przemyśle elektronicznym (np. urządzenia do przechowywania danych, tranzystory i inne).
Mikro i nanourządzenia, w których prędkość operacji jest coraz większa, wymuszają między innymi właściwe odprowadzanie wydzielającego się w nich ciepła (mikrochłodzenie). Z drugiej strony, mikrotechnologie polegające na nagrzewaniu z bardzo dużą szybkością cienkich warstw (thin films) również wymagają wnikliwej analizy zjawisk cieplnych umożliwiających właściwe przewidywanie mikrostruktury tych warstw.

Zjawiska takie zauważamy w produkcji:
  • Ogniw fotoelektrycznych
  •  Materiałów termoelektrycznych
  • Systemów mikroelektromechanicznych (MEMS)

W wyniku eksperymentów ujawniających nowe zjawiska termofizyczne zachodzące w nagrzewanych obszarach, których wymiary są wyrażone w nanometrach, pojawiła się nowa dziedzina nauki nazywana microscale heat transfer (przepływ ciepła w skali mikro). O takim przepływie mówimy wtedy, gdy poszczególne nośniki energii muszą być rozpatrywane oddzielnie i gdzie nie obowiązuje powszechnie stosowane w opisach makroskopowych prawo Fouriera




Impulsy lasera nagrzewającego cienką warstwę metalową
  


Temperatura elektronów i sieci dla Au  

Literatura:

  • E. Majchrzak, J.Poteralska, Application of  two-temperature model for numerical study of ultrashort laser pulse interactions with metal films, 37th Solid Mechanics Conference, 6 –10 September, Warsaw, Poland, 2010, Book of abstracts 52-53
  • E.Majchrzak, J.Poteralska, Numerical analysis of short-pulse laser interactions with thin metal film,  Archives of Foundry Engineering, Vol. 10, Issue 4, 2010, 123-128.

Szybka wielobiegunowa metoda elementów brzegowych

 

Metoda elementów brzegowych (MEB) jest jedną z efektywnych metod stosowanych w analizie układów mechanicznych. Dla szerokiej grupy zagadnień rozwiązanie uzyskuje się w wyniku dyskretyzacji jedynie brzegów obszarów. Analiza układów o dużej liczbie stopni swobody za pomocą MEB może być jednak nieefektywna ze względu na czas obliczeń lub wymaganą pamięć komputera. W metodzie tej liczba operacji oraz wymagana pamięć są funkcjami kwadratowymi, lub wyższego rzędu, liczby stopni swobody analizowanego układu. Rząd tych wielkości można zredukować przez zastosowanie szybkiej metody wielobiegunowej (SMW) (Greengard i Rokhlin, 1987). SMW zaliczana jest do 10 najważniejszych algorytmów  XX wieku (Board i Schulten, 2000). Stosowana jest w wielu dziedzinach, w których analizuje się wzajemne oddziaływania wielu ciał, cząstek lub punktów kontinuum materialnego: od astronomii po dynamikę molekularną. Wśród tych dziedzin można wymienić zagadnienie sprężystości opisane brzegowym równaniem całkowym. Szybka wielobiegunowa metoda elementów brzegowych (SWMEB) wykorzystuje rozwinięcie całek brzegowych (potencjałów) występujących w równaniu całkowym szereg, w otoczeniu punktów całkowania. Wpływ wielu punktów całkowania redukowany jest w pojedynczych punktach. Jest to rozwinięcie wielobiegunowe. Ma ono postać sumy iloczynów pewnych funkcji oraz współczynników (momentów). Dalej tworzy się rozwinięcie funkcji wielobiegunowych w otoczeniu punktów kolokacji. W ten sposób wpływ punktów całkowania jest rozdzielany do wielu punktów kolokacji. W SWMEB wykonuje się grupowanie elementów brzegowych w obszarach tworzących hierarchiczną strukturę drzewa. Momenty wielobiegunowe obliczane są tylko dla węzłów leżących na jego najwyższym poziomie. Liczba operacji całkowania jest proporcjonalna do liczby stopni swobody układu. Następnie przeprowadza się szereg transformacji współczynników oraz oblicza się składniki potencjałów. W SWMEB nie wyznacza się macierzy układu, ale od razu iloczyn macierzy i wektora wielkości brzegowych. Pamięć niezbędna do przeprowadzenia obliczeń jest proporcjonalna do liczby stopni swobody układu. Układ równań rozwiązuje się metodą iteracyjną, np. GMRES (ang. Generalized Minimal Residual). SWMEB jest stosowana w analizie układów o złożonej geometrii, o dużej liczbie stopni swobody (np. układów z wieloma otworami). Kolejne rysunki przedstawiają: fragment strony tytułowej cytowanego artykułu Boarda i Schultena, ogólny schemat SWMEB, przykładowe porównanie czasu obliczeń i pamięci komputera przy zastosowaniu konwencjonalnej MEB oraz SWMEB, oraz wyniki analizy różnych układów liniowosprężystych: materiału porowatego, tarczy hamulcowej motocykla oraz koła zębatego, za pomocą SWMEB.  

 


Literatura:

  • L. Greengard and V. Rokhlin, A Fast Algorithm for Particle Simulation, Journal of Computational Physics, Vol. 73, No. 2, 1987,  pp. 325-348.

  • J. Board, K. Schulten, The Fast Multipole Algorithm, Computing in Science and Engineering, Vol. 2, No. 1, 2000, pp. 76-79.

  • J. Ptaszny, P. Fedeliński, Fast multipole boundary element method for analysis of plates with many holes, Archives of Mechanics, Vol. 59, No 4-5, 2007, pp. 385-401.

  • J. Ptaszny, Szybka wielobiegunowa metoda elementów brzegowych w analizie układów liniowosprężystych, Rozprawa doktorska, Katedra Wytrzymałości Materiałów i Metod Komputerowych Mechaniki, Politechnika Śląska, Gliwice, 2009.

  • J. Ptaszny, P. Fedeliński, Numerical homogenization by using the fast multipole boundary element method, Archives of Civil and Mechanical Engineering, 2010 (w druku).


Optymalizacja ewolucyjna z wykorzystaniem gridów obliczeniowych

Zagadnienia optymalizacji konstrukcji należą do zadań trudnych i czasochłonnym obliczeniowo. Wynika to zarówno z potrzeby zagwarantowania optimum globalnego rozwiązywanego zadania jak i konieczności wielokrotnego rozwiązywania złożonych fizycznie (sprężystość, plastyczność,) i geometrycznie zadań bezpośrednich, w postaci zagadnień brzegowych lub brzegowo-początkowych fizyki matematycznej, służących do oceny funkcji celu. Przeprowadzenie optymalizacji niejednokrotnie wymaga dostępu do wysokowydajnych superkomputerów lub klasterów obliczeniowych. Optymalizację przeprowadza się zazwyczaj stosując metody klasyczne (najczęściej lokalne), oparte na znajomości gradientu funkcji celu, lub metody ewolucyjne (globalne).
Grid obliczeniowy jest grupą zasobów komputerowych (superkomputerów, klasterów obliczeniowych, pamięci masowych, oprogramowania) połączonych infrastrukturą sieciową. Najważniejsze cechy gridów to: udostępnienie dużej mocy obliczeniowej poprzez efektywne wykorzystanie rozproszonych zasobów, zapewnienie bezpieczeństwa zasobów, jednokrotne logowanie w celu uzyskania dostępu do zasobów. Prace nad rozwojem gridów prowadzone są w ramach wielu projektów europejskich, amerykańskich oraz azjatyckich.
W systemach gridowych można wyróżnić kilka głównych składników. Portal jest często jedynym składnikiem systemu gridowego, z którym ma do czynienia użytkownik w trakcie rozwiązywania zadań. Portal jest implementowany zazwyczaj jako zaawansowana strona internetowa lub prosty w obsłudze program. Portale umożliwiają użytkownikom, nie znającym obsługi wielu różnych systemów superkomputerów oraz klasterów obliczeniowych, na uruchamianie skomplikowanych zadań. Portale tworzone są w taki sposób, aby uruchomienie zadania korzystającego z różnych zasobów komputerowych, przeprowadzane było w jak najprostszy sposób. Użytkownik końcowy oprogramowania nie jest zmuszany do poznania systemów operacyjnych, systemów kolejkowania oraz szczegółów obsługi superkomputerów oraz klasterów obliczeniowych, co pozwala na skupienie się na poprawnej budowie rozwiązywanego zadania oraz analizie wyników. Oprogramowanie warstwy pośredniej (middleware) zapewnia mechanizmy weryfikacji użytkowników, przydzielanie zasobów komputerowych oraz komunikację z docelowymi superkomputerami oraz klasterami obliczeniowymi. Oprogramowanie to tworzone jest tak, aby maksymalnie wykorzystać dostępne cechy systemów operacyjnych oraz najpopularniejsze programy kolejkowania zadań na docelowych komputerach. Ostatnią częścią składową systemu gridowego są superkomputery oraz klastery obliczeniowe.
Użycie środowisk gridowych prowadzi do zwiększenia efektywności użycia zasobów sprzętowych i programowych. Powstanie środowisk takich jak UNICORE pozwala również znacznie uprościć proces przygotowywania zadania optymalizacji, doboru parametrów. Nawet użytkownik nie znający środowiska docelowego, na którym będzie przeprowadzana optymalizacja może skorzystać z zasobów superkomputerowych dzięki odpowiedniemu oprogramowaniu/ portalom gridowym. Środowisko UNICORE zapewnia standaryzację wymiany informacji pomiędzy zasobami gridowymi a komputerem użytkownika. Za pomocą UNICORE przeprowadzana jest autoryzacja użytkownika (z użyciem bezpiecznych certyfikatów X.509), przesyłane są pliki do/z gridu, tworzone są schematy prac do wykonania (np. diagram w którym oprócz optymalizacji można umieścić zadanie, którego celem będzie wizualizacja wyników). Środowisko UNICORE dostarcza również wielu narzędzi programistycznych dzięki którym rozszerzenia mogą być efektywnie tworzone w oparciu o pluginy. Środowisko to oparte jest o język Java, co umożliwia uruchomienie aplikacji klienta na praktycznie każdej dostępnie aktualnie platformie sprzętowej (począwszy od Windows, Linux, BSD, a kończąc na platformach opartych o system UNIX).
Zastosowano grid obliczeniowy składający się z klastra oraz superkomputera, przystosowanego do optymalizacji konstrukcji. Oprogramowanie do optymalizacji konstrukcji umieszczono na klastrze i superkomputerze. Podczas optymalizacji najwięcej czasu zajmuje rozwiązywanie zadań bezpośrednich, oprogramowanie używane w tym celu również znajduje się na klastrze oraz superkomputerze.
Zastosowanie środowisk gridowych stwarza nowe możliwości rozwoju metod optymalizacji ewolucyjnej układów mechanicznych. Poprzez zastosowanie rozwiązań gridowych upraszcza się proces wykorzystania zaawansowanych zasobów sprzętowych oraz programowych. Opracowanie metod oraz programów współpracujących ze środowiskami gridowymi pozwoli w niedługim czasie rozwiązywać bardzo złożone zadania optymalizacji z wykorzystaniem powstających w ramach europejskich i światowych projektów gridów obliczeniowych.

Literatura:

  • W. Kuś, T. Burczyński Grid-based evolutionary optimization of structures Parallel Processing and Applied Mathematics: 6th International Conference, PPAM 2005, Poznan, Poland, September 11-14, 2005, Revised Selected Papers, Lecture Notes on Computational Science, vol. 3911, pp. 422-429, Springer, 2006.

  • W. Kuś Evolutionary optimization of preform and die shape in forging using computational grid III European Conference on Computational Mechanics, ECCM 2006, Lisbon, pp. 449, Springer, 2006


Identyfikacja stałych materiałowych w zwykłych i hybrydowych laminatach wielowarstwowych zbrojonych włóknami

Materiały kompozytowe, a w szczególności laminaty wielowarstwowe wzmacniane włóknami, są coraz częściej stosowanymi w technice materiałami. Jest to spowodowane przede wszystkim wysokim stosunkiem wytrzymałości do ciężaru właściwego w porównaniu z typowymi, zwykle izotropowymi materiałami konstrukcyjnymi.
Laminaty są materiałami ortotropowymi, co przy dodatkowym założeniu o płaskim stanie naprężenia (płyta cienka) powoduje, iż mamy do czynienia z 4 niezależnymi stałymi materiałowymi: 2 moduły Younga, 1 moduł Kirchhoffa i 1 współczynnik Poissona.
Koszt laminatu gwałtownie rośnie wraz ze wzrostem jego własności wytrzymałościowych. Kompromis między ceną a własnościami wytrzymałościowymi można uzyskać poprzez stosowanie laminatów hybrydowych, w których poszczególne warstwy są wykonane z różnych materiałów, przy czym zazwyczaj zewnętrzne warstwy są wykonane z wytrzymalszego (droższego) materiału, podczas gdy warstwy wewnętrzne tworzy laminat tańszy i mniej wytrzymały. W tym przypadku identyfikacji podlega 10 parametrów (oprócz wymienionych wcześniej parametrów dla obydwu materiałów identyfikacji podlegają również gęstość poszczególnych materiałów).
Ze względu na fakt, iż elementy wykonane z laminatów mają często charakter produkcji jednostkowej, istotne staje się określenie stałych materiałowych laminatu w sposób nieniszczący.
Zagadnienie identyfikacji należy do tzw. zagadnień odwrotnych, gdzie wielkości nieznane są identyfikowane na podstawie odpowiedzi układu na wymuszenie. Ze względu na zakładaną wielomodalność funkcji celu jak również rozpatrywanie zagadnień dyskretnych jako modułu optymalizacyjnego użyto algorytmu ewolucyjnego. W celu zmniejszenia czasochłonności obliczeń zastosowano rozproszoną wersję algorytmu ewolucyjnego.
Do identyfikacji wykorzystano (symulowane numerycznie) pomiary wielkości dynamicznych (częstości drgań własnych, odpowiedź częstotliwościowa układu), po pozwoliło zminimalizować liczbę czujników pomiarowych.
Do zamodelowania laminatu i rozwiązania zadania podstawowego zastosowano profesjonalny pakiet metody elementów skończonych.
Ponieważ pomiary są zawsze obarczone pewnym błędem, rozpatrzono również wpływ niewielkiego błędu pomiarowego o rozkładzie normalnym na skuteczność identyfikacji.

Literatura:

  • W. Beluch, W. Kuś, T. BurczyńskiEvolutionary identification of material constants in composites,  Full papers, Symposium on Methods of Artificial Intelligence AI-METH 2003, Gliwice, 2003.
  • W. Beluch, T. Burczyński, W. KuśDistributed evolutionary algorithms in identification of material constants in composites,  KAEIOG 2004, Kazimierz, 2004.
  • W. Beluch, Evolutionary Identification and Optimization of Composite Structures,  III European Conference on Computational Mechanics, ECCM 2006, Lisbon, Springer, 2006
     

Identyfikacja podobszaru nowotworowego w tkance biologicznej z zastosowaniem algorytmu
ewolucyjnego i hybrydowego

Temperatura powierzchni tkanki zależy od perfuzji krwi, lokalnego metabolizmu oraz warunków brzegowych determinujących wymianę ciepła pomiędzy tkanką a otoczeniem. Pojawienie się podobszaru nowotworowego powoduje wzrost lokalnego współczynnika perfuzji krwi oraz metabolicznego źródła ciepła, co powoduje niejednorodność rozkładu pola temperatury na powierzchni tkanki skórnej. Zmiana temperatury na powierzchni skóry może być istotną informacją o występującym zagrożeniu nowotworem. Możliwa jest, zatem identyfikacja kształtu i położenia nowotworu w tkance biologicznej na podstawie zmiany temperatury na jej powierzchni. Rozważania dotyczą zastosowania algorytmu ewolucyjnego oraz hybrydowego do identyfikacji parametrów geometrycznych podobszaru nowotworowego zlokalizowanego w tkance biologicznej (zadanie 3D). Rozpatrywane zagadnienie traktowane jest jako zagadnienie odwrotne, w którym rozwiązanie otrzymywano poprzez minimalizację funkcjonału zawierającego temperatury „zmierzone” na powierzchni tkanki i temperatury wyznaczone na podstawie symulacji numerycznych. Każdy chromosom w populacji zawiera informację o parametrach geometrycznych tkanki nowotworowej, a jego funkcja przystosowania obliczana jest na podstawie rozwiązania zadania bezpośredniego przy użyciu metody elementów brzegowych z zastosowaniem wielokrotnej zasady wzajemności. Do rozwiązania powyższego problemu zastosowano również algorytm hybrydowy, którego pierwszy etap stanowił algorytm ewolucyjny, natomiast etap drugi - algorytm gradientowy.

Literatura:

  • E. Majchrzak, M. Paruch, Identyfikacja podobszaru nowotworowego w tkance biologicznej z zastosowaniem algorytmu ewolucyjnego i hybrydowego, V Sympozjum Modelowanie i Symulacja Komputerowa w Technice, Łódź 2006.
  • M. Paruch, Zastosowanie metod identyfikacji w wybranych zagadnieniach przepływu biociepła. Rozprawa doktorska Politechnika Śląska. Wydział Mechaniczny Technologiczny. Promotor: prof. dr hab. inż. Ewa Majchrzak, Gliwice 2005

Stochastyczny algorytm ewolucyjny w zagadnieniach optymalizacji i identyfikacji

Zastosowanie technik ewolucyjnych w zagadnieniach optymalizacji i identyfikacji może mieć miejsce również w przypadku układów z niepewnymi parametrami. Chromosomy mają wtedy postać wektorów stochastycznych zawierających losowe geny. Zmienne losowe mogą być opisane rozkładem Gaussa. Problem optymalizacji stochastycznej zastępowany jest problemem optymalizacji deterministycznej, w której wektorowe geny zawierają parametry rozkładów Gaussa (wartość średnia i odchylenie standardowe) poszczególnych genów stochastycznych. Do takiego algorytmu definiuje się nowe operatory ewolucyjne. Podejmowana problematyka związaną jest z ziarnistością danych poprzez wprowadzenie do algorytmów ewolucyjnych chromosomów w postaci wektorów stochastycznych, składających się z genów, których niepewność modelowana jest za pomocą liczb losowych o rozkładzie normalnym. Algorytm ten nazwano Stochastycznym Algorytmem Ewolucyjnym (SAE). W przedstawionym algorytmie SAE wszystkie jego składowe elementy: reprezentacja danych, selekcja oraz operatory ewolucyjne w postaci krzyżowania i mutacji zostały dostosowane do stochastycznej postaci danych. Niezależnie od tego operacje selekcji, krzyżowania i mutacji, podobnie jak w zwykłym algorytmie ewolucyjnym, zachodzą z założonym prawdopodobieństwem. Ocena funkcji przystosowania przeprowadzana jest z wykorzystaniem stochastycznej metody elementów skończonych. 

Przedstawiony stochastyczny algorytm ewolucyjny służyć może jako metoda optymalizacji globalnej
w zagadnieniach odwrotnych, w których występują parametry losowe. Szczególnym obszarem zastosowania SAE są zagadnienia optymalizacji niezawodnościowej. Przedstawione pierwsze testy numeryczne wskazują na dużą skuteczność SAE.

Literatura:

  • T. Burczyński, P. Orantek, Algorytm ewolucyjny bazujący na interwałowej i rozmytej reprezentacji danych. Testy numeryczne. Zeszyty Naukowe WSInf. Łódź 2005.
  • T. Burczyński, P. Orantek, The fuzzy evolutionary algorithms in optimization problems. Proc. KAEiOG 2005. Korbielów 2005.
  • P.Orantek, T.Burczyński, Stochastyczny algorytm ewolucyjny w zagadnieniach optymalizacji i identyfikacji,  Zeszyty Naukowe WSInf. Łódź 2006.

 
  Laboratorium Zastosowań Metod Sztucznej Inteligencji
  INTEREDU
  Sekcja Optymalizacji i Sterowania Komitetu Mechaniki PAN
  Sekcja Nauk Obliczeniowych KI PAN
  Studenckie Koło Naukowe Metod Komputerowych
  Programy MES do książki T. Burczyński, R.Bąk Wytrzymałość Materiałów z elementami ujęcia komputerowego (www.mes.polsl.pl)
  Strona poświęcona podręcznikowi "Badania operacyjne. Teoria i zastosowania."
  Konferencja EUROGEN2009
  Polskie Towarzystwo Metod Komputerowych Mechaniki
  DSMCM Grid Team
  Centrum Doskonałości AI-METH
  Konferencja AI-METH
  Strona główna Politechniki Ślaskiej
  Strona główna Wydziału MT
  Ministerstwo Nauki i Szkolnictwa Wyższego
  Poczta na polsl.pl
 Dodaj nowe łącze
Aktualnie nie ma żadnych nadchodzących wydarzeń. Aby dodać nowe wydarzenie, kliknij przycisk Dodaj nowe wydarzenie poniżej.
 Dodaj nowe wydarzenie
 
 
  stat4u