Denna webbplats använder cookies för att ditt besök ska fungera bättre.

Vi använder enhetsidentifierare för att med hjälp av Google Analytics analysera vår trafik för att optimera innehållet på denna webbplats. Detta innebär också att vi vidarebefordrar identifierare och annan information från din enhet till Google. Läs mer

Dessa kan i sin tur kombinera informationen med annan information som du har tillhandahållit eller som de har samlat in när du har använt deras tjänster. Vill du inte att information skickas till Google så finns det sätt att blockera detta i din webbläsare. Vi använder även cookies för att förbättra användarupplevelsen. Du kan enkelt ta del av, blockera och avlägsna lagrade cookies om så önskas via inställningar i din webbläsare.

Acceptera alla cookies

Datorerna kan bli ännu snabbare

En effektiv beräkning avgörs ofta av prestandan på delberäkningarna. Lars Karlsson, Institutionen för datavetenskap vid Umeå universitet, har i sin doktorsavhandling tagit fram nya och snabbare metoder för ett antal centrala delberäkningar som arbetar med så kallade matriser. Metoderna gör det enklare att lösa stora beräkningsproblem på kortare tid.

System av datorer

En parallelldator är ett system av datorer som samverkar för att lösa en uppgift snabbare än vad en enskild dator skulle förmå. Det sker genom att uppgiften delas upp i flera deluppgifter som hanteras samtidigt av flera processorer. Processorerna måste också kunna kommunicera med varandra för att koordinera arbetet. Om delarna är för små riskerar koordinationen att bli alltför kostsam och därmed spoliera nyttan med parallella beräkningar.

Lars Karlsson har i sin avhandling tagit fram metoder där syftet är att få en bra balans mellan, å ena sidan, hur stora deluppgifterna är och, å andra sidan, hur effektivt de parallella processorerna utnyttjas.

Utnyttjar cache-minnet bättre

Tänk dig att du vill utföra en beräkning med matriser i en parallelldator. Matriserna lagras då i datorns minne och processorn hämtar sedan in matriselementen. Därefter utförs beräkningarna i processorn och de nya matriselementen skickas tillbaka till minnet. Eftersom kommunikationen med datorns minne är ganska långsam innehåller processorer en hierarki av snabba men små så kallade cacheminnen. Matriselementen mellanlagras först i ett eller flera cache-minnen och på detta sätt slipper man involvera det långsamma minnet alltför ofta. Detta ger snabbare överföringar mellan dator och processor och därmed i slutändan snabbare beräkningar.

Eftersom cache-minnen har begränsad kapacitet är det viktigt att använda dem på bästa sätt. Specifikt handlar det om att omorganisera beräkningsmetoderna så att överföringarna till och från minnet så ofta som möjligt går direkt till ett cache-minne. Dessutom måste datorn lagra matriserna på ett sätt som passar den aktuella metoden.

Lars Karlsson har i sin avhandling tagit fram nya metoder som använder cache-minnen mer effektivt än tidigare. Han har även tagit fram parallella metoder som minnessnålt omordnar lagrade matriselement till format som passar så kallade flerkärniga processorer.

Om disputationen
Torsdagen den 19 maj försvarar Lars Karlsson, Institutionen för datavetenskap, Umeå universitet, sin avhandling med titeln
Scheduling of parallel matrix computations and data layout conversion for HPC and multi-core architectures. Svensk titel: Schemaläggning av parallella matrisberäkningar samt konvertering av datalagringsformat för högpresterande och flerkärniga datorarkitekturer.

Foto: Mikael Hansson

Sök till Uminova Innovation

Vi är alltid på jakt efter fler västerbottniska affärsidéer att boosta. Om du har en, som du tror på och inte kan släppa, så kan du ansöka om vårt affärsstöd. Det tar bara 10 minuter. Vi hör av oss till dig och berättar om och hur vi kan hjälpa dig bäst. Ps. Vi arbetar under full sekretess.