Fix bugs in previous commit that caused FTBFS in synfig and ETL FTBFS with older...
[synfig.git] / synfig-core / tags / synfig_0_61_05 / synfig-core / src / modules / mod_libavcodec / libavcodec / mem.c
1 /*
2  * default memory allocator for libavcodec
3  * Copyright (c) 2002 Fabrice Bellard.
4  *
5  * This library is free software; you can redistribute it and/or
6  * modify it under the terms of the GNU Lesser General Public
7  * License as published by the Free Software Foundation; either
8  * version 2 of the License, or (at your option) any later version.
9  *
10  * This library is distributed in the hope that it will be useful,
11  * but WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * Lesser General Public License for more details.
14  *
15  * You should have received a copy of the GNU Lesser General Public
16  * License along with this library; if not, write to the Free Software
17  * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
18  */
19  
20 /**
21  * @file mem.c
22  * default memory allocator for libavcodec.
23  */
24  
25 #include "avcodec.h"
26
27 /* here we can use OS dependant allocation functions */
28 #undef malloc
29 #undef free
30 #undef realloc
31
32 #ifdef HAVE_MALLOC_H
33 #include <malloc.h>
34 #endif
35
36 /* you can redefine av_malloc and av_free in your project to use your
37    memory allocator. You do not need to suppress this file because the
38    linker will do it automatically */
39
40 /** 
41  * Memory allocation of size byte with alignment suitable for all
42  * memory accesses (including vectors if available on the
43  * CPU). av_malloc(0) must return a non NULL pointer.
44  */
45 void *av_malloc(unsigned int size)
46 {
47     void *ptr;
48     
49 #if defined (HAVE_MEMALIGN)
50     ptr = memalign(16,size);
51     /* Why 64? 
52        Indeed, we should align it:
53          on 4 for 386
54          on 16 for 486
55          on 32 for 586, PPro - k6-III
56          on 64 for K7 (maybe for P3 too).
57        Because L1 and L2 caches are aligned on those values.
58        But I don't want to code such logic here!
59      */
60      /* Why 16?
61         because some cpus need alignment, for example SSE2 on P4, & most RISC cpus
62         it will just trigger an exception and the unaligned load will be done in the
63         exception handler or it will just segfault (SSE2 on P4)
64         Why not larger? because i didnt see a difference in benchmarks ...
65      */
66      /* benchmarks with p3
67         memalign(64)+1          3071,3051,3032
68         memalign(64)+2          3051,3032,3041
69         memalign(64)+4          2911,2896,2915
70         memalign(64)+8          2545,2554,2550
71         memalign(64)+16         2543,2572,2563
72         memalign(64)+32         2546,2545,2571
73         memalign(64)+64         2570,2533,2558
74         
75         btw, malloc seems to do 8 byte alignment by default here
76      */
77 #else
78     ptr = malloc(size);
79 #endif
80     return ptr;
81 }
82
83 /**
84  * av_realloc semantics (same as glibc): if ptr is NULL and size > 0,
85  * identical to malloc(size). If size is zero, it is identical to
86  * free(ptr) and NULL is returned.  
87  */
88 void *av_realloc(void *ptr, unsigned int size)
89 {
90     return realloc(ptr, size);
91 }
92
93 /* NOTE: ptr = NULL is explicetly allowed */
94 void av_free(void *ptr)
95 {
96     /* XXX: this test should not be needed on most libcs */
97     if (ptr)
98         free(ptr);
99 }
100